domingo, 30 de junio de 2013

Una sonda de nanotubos para observar la actividad cerebral a nivel unineuronal

Una micrografía muestra un nuevo
electrodo cerebral, lo suficientemente
delgado y largo como para registrar 

información desde el interior de
una sola neurona.
Una delgada sonda de nanotubos de carbono puede medir pequeños cambios eléctricos en el interior de una sola neurona. POR SUSAN YOUNG - TRADUCIDO POR FRANCISCO REYES (OPINNO)

Una pequeña lanza hecha de nanotubos de carbono es capaz de sondear la actividad eléctrica interna de una sola neurona, dando a los investigadores una visión más precisa de cómo responden las neuronas a las señales de sus células vecinas. El sondeo del cerebro a esta resolución podría ser vital dentro de los esfuerzos por comprender y mapear su función con nuevo detalle (ver "La importancia del proyecto de mapeo del cerebro impulsado por Obama").

Los 'arpones' neuronales solo tienen entre 5 y 10 micrómetros de ancho y pueden perforar una célula viva para medir los cambios eléctricos asociados con la señalización neuronal. En láminas diseccionadas de tejido cerebral de ratón aún activo, investigadores de la Universidad de Duke (EE.UU.) fueron capaces de registrar [información] desde el interior de una neurona a la vez.

"Que sepamos, nuestro estudio muestra el primer registro intracelular con nanotubos de carbono en neuronas de vertebrados", señala Bruce Donald, bioquímico y científico informático en la Universidad de Duke, y autor del estudio, que fue publicado en PLoS ONEel pasado miércoles.

Los nanotubos de carbono tienen una gran cantidad de propiedades que resultan muy convenientes para el registro cerebral, señala Donald: son fuertes, compatibles con los tejidos corporales y conducen bien la electricidad. Sin embargo, los dispositivos anteriores construidos a partir de nanotubos de carbono han sido demasiado cortos o anchos y no servían bien para el registro en el interior de las células. Por su lado, las sondas construidas por los investigadores de Duke tenían alrededor de un milímetro de largo y podían usarse para registrar la actividad eléctrica de forma más precisa que las típicas configuraciones de vidrio o electrodos metálicos.

 Neuroarpón tiene punta muy afilada
El equipo fue capaz de detectar pequeños cambios en la actividad eléctrica de la célula, cambios correspondientes a las señales de entrada que la neurona estaba recibiendo de otras neuronas. Una neurona cortical media puede recibir señales de alrededor de 10.000 otras neuronas, señalaRichard Mooney, neurocientífico de la Universidad de Duke y coautor del estudio. "A nivel individual, generan señales muy pequeñas", asegura. En conjunto, la colección de señales es analizada por la neurona receptora, y esta decide si activarse o no.

Los registros intracelulares podrían ser útiles para el mapeo de las conexiones funcionales entre las neuronas, uno de los objetivos de la iniciativa BRAIN, que ha sido recientemente lanzada en EE.UU. (ver "El mapa de la actividad cerebral"). "Al ser capaces de ver el interior de la célula y medir pequeños cambios de voltaje, obtenemos acceso a la red que se comunica con dicha célula", afirma Mooney.

Los investigadores utilizaron una 'ingeniosa técnica' para construir el dispositivo, señalaTakashi Kozai, ingeniero neural que no participó en el estudio. Comenzando con la punta de un alambre de tungsteno, construyeron una larga sonda con forma de aguja hecha de nanotubos de carbono enredados. A continuación, recubrieron la sonda con un material aislante y utilizaron un haz de iones para bombardear la punta, eliminando el aislamiento de la zona y reduciéndola hasta lograr una punta fina.

"Con esta técnica, podemos hacer que [las sondas] tengan la longitud que queramos", asegura Kozai, que también está desarrollando electrodos microscópicos para registrar la actividad neuronal. El trabajo "sienta las bases para la fabricación de dispositivos aún más estrechos, tal vez del orden de 100 nanómetros en vez de micras", señala.

Además de en láminas de cerebro diseccionado, el equipo probó su electrodo delgado en ratones anestesiados, a pesar de que no fueron capaces de obtener grabaciones del interior de las células cerebrales de estos animales. Sin embargo, si las futuras versiones de la punta de nanotubos logran ser aún más afiladas, podrían ser capaces de perforar mejor las células de cerebros blandos y esponjosos, asegura Kozai. Si eso resulta posible, y si el dispositivo logra ser estable en cerebros vivos a lo largo del tiempo, podría ayudar a los investigadores a explorar cómo aprende y recuerda un cerebro vivo.

"Si logran registrar de manera estable la misma célula longitudinalmente", afirma Kozai, "eso podría utilizarse para trazar el cambio de las neuronas durante la formación de la memoria y el aprendizaje".

De cómo la tecnología está destruyendo el empleo

La automatización reduce el número de trabajadores necesarios en muchos puestos de trabajo. ¿Nos enfrentamos a un futuro de ingresos estancados y mayores desigualdades?

Dado su comportamiento, académico, calmado y razonado, quizá no nos demos cuenta de lo provocadora que resulta en realidad la opinión de Erik Brynjolfsson. Brynjolfsson, profesor de la Escuela Sloan de Administración y Dirección de Empresas del Instituto de Tecnología de Massachusetts (MIT por sus siglas en inglés) y su colaborador y coautor, Andrew McAfee, han estado defendiendo durante el último año y medio que los impresionantes avances que se han producido en la tecnología de computación -desde la robótica industrial mejorada, hasta los servicios de traducción automáticos- son responsables en gran medida del lento crecimiento del empleo en los últimos 10 o 15 años. Y, lo que es aún peor para los trabajadores, estos académicos del MIT prevén una perspectiva deprimente para muchos tipos de trabajos según se vayan adoptando estas potentes nuevas tecnologías no solo en la fabricación, los servicios y los comercios, sino en profesiones como el derecho, los servicios financieros, la educación y la medicina.

Que los robots, la automatización y el software son capaces de sustituir a las personas es algo evidente para cualquiera que haya trabajado en la fabricación de automóviles o como agente de viajes. Pero la afirmación de Brynjolfsson y McAfee es más preocupante y polémica. Creen que este rápido cambio tecnológico ha estado destruyendo trabajos a un ritmo mayor del que los está creando, contribuyendo al estancamiento de los ingresos medios y al aumento de la desigualdad en Estados Unidos. Y sospechan que sucede algo similar en otros países tecnológicamente avanzados.

Quizá la prueba más condenatoria, según Brynjolfsson, es un gráfico que solo podría encantar a un economista. En economía, la productividad -el valor económico creado por una unidad dada de producción, por ejemplo una hora de mano de obra- es un indicador clave del crecimiento y la creación de riqueza. Es una medida del progreso. En el gráfico que le gusta mostrar a Brynjolfsson, hay dos líneas que representan la productividad y empleo respectivamente en Estados Unidos. Los años posteriores a la Segunda Guerra Mundial, las dos líneas iban en paralelo, el aumento de puestos de trabajo correspondía a aumentos en la productividad. El patrón queda claro: según las empresas generaban más valor gracias a sus trabajadores, todo el país se hacía más rico, lo que impulsaba una mayor actividad económica y creaba aún más puestos de trabajo. Pero a partir del año 2000, estas dos líneas empiezan a divergir; la productividad sigue creciendo con fuerza, pero el empleo decrece de repente. Para el año 2011 ya existe una brecha significativa entre ambas líneas, se observa un crecimiento económico sin que haya un aumento paralelo en la creación de puestos de trabajo. Brynjolfsson y McAfee lo denominan el "gran divorcio". Y Brynjolfsson está convencido de que la tecnología está detrás tanto del saludable aumento de la productividad como del débil aumento de los puestos de trabajo.

Esta resulta ser una afirmación sorprendente, porque amenaza la fe que muchos economistas tienen puesta en el progreso tecnológico. Brynjolfsson y McAfee aún creen que la tecnología sirve para aumentar la productividad y la riqueza de las sociedades, pero también piensan que tiene un lado oscuro: el progreso tecnológico está eliminando la necesidad de muchos tipos de trabajos y dejando al trabajador medio en peor situación que antes. Brynjolfsson señala a un segundo gráfico que indica que los ingresos medios no aumentan, incluso con un aumento significativo del producto interior bruto. "Es la gran paradoja de nuestra era", afirma. "La productividad está en niveles récord, la innovación nunca ha sido más rápida, pero al mismo tiempo tenemos unos ingresos medios decrecientes y tenemos menos puestos de trabajo. La gente se está quedando atrás porque la tecnología avanza muy rápido y nuestras habilidades y organizaciones no consiguen mantener el ritmo".

Brynjolfsson y McAfee no son ludistas. De hecho, a veces se les acusa de ser demasiado optimistas sobre el alcance y velocidad de los recientes avances digitales. Brynjolfsson explica que empezaron a escribir Race Against the Machine (Una carrera contra la máquina, sin traducción al español por el momento), el libro de 2011 en el que exponían gran parte de sus argumentos, porque querían explicar los beneficios económicos de estas nuevas tecnologías (Brynjolfsson se pasó gran parte de la década de 1990 desenterrando pruebas de que la tecnología de la información estaba aumentando la productividad). Pero se hizo aparente que las mismas tecnologías que estaban logrando que los trabajos fueran más seguros, fáciles y productivos también estaban reduciendo la demanda de muchas tipos de trabajadores humanos.


Existen pruebas anecdóticas por todas partes de que las tecnologías digitales suponen una amenaza para el empleo. Los robots y la automatización avanzada están instalados en muchos tipos de fabricación desde hace décadas. En Estados Unidos y China, las mayores potencias mundiales de la fabricación, hay menos personas trabajando en la manufacturación ahora que en 1997, debido en parte a la automatización. Las plantas automovilísticas modernas, muchas de las cuales se transformaron con la llegada de la robótica industrial en la década de 1980, suelen usar máquinas que sueldan y pintan chasis de forma autónoma, trabajos que antes hacían humanos. Más recientemente se han introducido robots más flexibles y mucho más baratos que sus predecesores, como Baxter de Rethink Robotics (ver ""), que llevan a cabo tareas sencillas para pequeños fabricantes en toda una gama de sectores. El sitio web de una start-up de Silicon Valley llamada Industrial Perception tiene un vídeo del robot que ha diseñado para usar en almacenes cogiendo y lanzando cajas como un elefante aburrido. Y sensaciones como el coche sin conductor de Google nos dan una idea de lo que podrá lograr la automatización algún día no muy lejano.

En el trabajo administrativo y los servicios profesionales se está dando un cambio menos dramático pero con un impacto potencial sobre el empleo mucho mayor. Tecnologías como la Web, la inteligencia artificial, los macrodatos y las analíticas mejoradas -todas posibles gracias a una disponibilidad cada vez mayor de potencia de computación barata y capacidad de almacenaje- están automatizando muchas tareas rutinarias. Han desaparecido incontables trabajos de oficina tradicionales, como muchos de los que hay en la oficina de correos y en los servicios de atención al cliente. W. Brian Arthur, investigador visitante en el laboratorio de sistemas de inteligencia del Centro de Investigación de Xerox en Palo Alto (EE.UU.), lo denomina la "economía autónoma". Es mucho más sutil que la idea de robots y la automatización encargándose de trabajos humanos, afirma: implica "procesos digitales hablando con otros procesos digitales y creando nuevos procesos", permitiéndonos hacer muchas cosas con menos gente y haciendo que más trabajos humanos queden obsoletos.

Arthur afirma que es principalmente esta avalancha de procesos digitales la que sirve para explicar cómo ha crecido la productividad sin que haya habido un aumento significativo de la mano de obra humana. Y afirma que "las versiones digitales de la inteligencia humana" están sustituyendo cada vez más incluso a aquellos puestos para los que se creía que hacían falta personas. "Esto cambiará todas las profesiones en formas que ni siquiera hemos empezado a ver", avisa.

McAfee, director asociado del Centro de Negocios Digitales del MIT en la Escuela Sloan, habla rápidamente y con cierta admiración cuando describe avances como el coche sin conductor de Google. Pero, a pesar de su evidente entusiasmo por las tecnologías, no cree que los trabajos recién desaparecidos vayan a volver. De hecho sugiere que la presión sobre el empleo y las desigualdades resultantes solo empeorarán con el avance exponencial de las tecnologías digitales a lo largo de las próximas décadas -alimentadas con "la cantidad suficiente de potencia de computación, datos y geeks"-. "Me gustaría equivocarme", afirma, "pero cuando se desplieguen todas estas tecnologías de ciencia ficción, ¿para qué necesitaremos a la gente?".

¿Una nueva economía?

Pero, ¿son responsables estas tecnologías realmente de una década de pobre crecimiento del empleo? Muchos economistas del trabajo afirman que los datos están lejos de ser concluyentes, en el mejor de los casos. Puede haber más explicaciones, entre ellas los acontecimientos relacionados con el comercio global y las crisis financieras de principios y finales de la década de 2000, responsables de la relativa lentitud en la creación de empleos desde el cambio de siglo. "Nadie lo sabe en realidad", afirma Richard Freeman, economista del trabajo de la Universidad de Harvard (EE.UU.). Según él, es porque resulta muy difícil "desenredar" los efectos de la tecnología entre otros efectos macroeconómicos. Pero se muestra escéptico respecto a que la tecnología haya podido cambiar tanto una amplia gama de sectores empresariales lo suficientemente rápido como para explicar las cifras de empleo recientes.

Las tendencias de empleo han polarizado a la fuerza de trabajo y vaciado la clase media.

David Autor, economista del MIT que ha estudiado en profundidad la conexión entre el empleo y la tecnología, también duda de que esta pueda ser responsable de un cambio tan drástico en las cifras de empleo total. "Ha habido una fuerte caída del empleo que empezó en el año 2000. Algo cambió", afirma. "Pero nadie conoce la causa". Es más, duda incluso de que la productividad haya crecido de manera significativa en Estados Unidos en la última década (los economistas pueden mostrarse en desacuerdo respecto a esa estadística puesto que hay distintas formas de medir y pesar los inputs y outputseconómicos). Si tiene razón, aumenta la posibilidad de que el pobre crecimiento del empleo sea resultado simplemente de una economía ralentizada. El frenazo súbito en la creación de empleo "es un gran puzle", afirma, "pero no existen demasiadas pruebas de que esté relacionado con los ordenadores".

Autor admite que las tecnologías informáticas están cambiando el tipo de trabajos disponibles, y que esos cambios "no son siempre para mejor". Por lo menos desde la década de 1980, afirma, los ordenadores han ido haciéndose con tareas como la contabilidad, el trabajo administrativo y los trabajos repetitivos en la fabricación y todos ellos suponían ingresos de clase media. Al mismo tiempo han proliferado los empleos con sueldos mayores asociados que exigen creatividad y habilidad para resolver problemas, a menudo auxiliados por ordenadores. También lo han hecho los trabajos para la mano de obra no cualificada: la demanda ha aumentado en el campo de la restauración, el mantenimiento, la asistencia domiciliaria y otros servicios que son casi imposibles de automatizar. El resultado, afirma Autor, ha sido una "polarización" de la fuerza de trabajo y un "vaciado" de la clase media, algo que ha sucedido en numerosos países industrializados a lo largo de las últimas décadas. Pero "eso es muy distinto a afirmar que la tecnología está afectando a la cifra total de empleo", añade. "Los empleos pueden cambiar mucho sin que haya cambios importantes en los índices de ocupación".

Es más, incluso aunque las tecnologías digitales actuales estén reteniendo la creación de empleo, la Historia sugiere que lo más probable es que este sea un shock doloroso, pero temporal; según los trabajadores vayan ajustando sus capacidades y los emprendedores creen oportunidades basadas en las nuevas tecnologías, la creación de empleo rebotará. Por lo menos ese siempre ha sido el patrón. La pregunta entonces es saber si el caso de las tecnologías informáticas actuales será distinto, creando un desempleo no deseado a largo plazo.

Por lo menos desde la Revolución Industrial, que comenzó en el siglo XVIII, las mejoras en la tecnología han ido acompañadas de un cambio en la naturaleza del trabajo, al mismo tiempo que destruían algunos tipos de trabajo en el proceso. En 1900, el 41 por ciento de los estadounidenses trabajaban en el sector agrícola; para el año 2000 esa cifra era de solo el 2 por ciento. Igualmente, la proporción de estadounidenses empleados en la fabricación ha caído del 30 por ciento en los años posteriores a la Segunda Guerra Mundial, a alrededor del 10 por ciento en la actualidad, en parte debido a una mayor automatización, sobre todo durante la década de 1980.


Aunque estos cambios pueden resultar dolorosos para los trabajadores cuyas habilidades ya no casen con las necesidades de las empresas, Lawrence Katz, economista de la Universidad de Harvard, afirma que no hay un patrón histórico que demuestre que conduzcan a un descenso neto del empleo en un periodo de tiempo prolongado. Katz ha investigado en profundidad cómo han afectado los avances tecnológicos al empleo a lo largo de los últimos siglos -describiendo por ejemplo cómo los artesanos más hábiles de mediados del siglo XIX fueron sustituidos por trabajadores menos cualificados en las fábricas-. A pesar de que los trabajadores pueden tardar décadas en adquirir la experiencia necesaria para los nuevos tipos de empleo, explica, "nunca nos hemos quedado sin empleos. No existe una tendencia a largo plazo de eliminar el trabajo de la gente. En el largo plazo, las tasas de empleo son relativamente estables. La gente siempre ha sido capaz de crear nuevos trabajos. A la gente se le ocurren nuevas cosas que hacer".

Aún así Katz no desecha la idea de que puede haber algo distinto en las tecnologías digitales actuales, algo que podría afectar a una gama aún mayor de trabajos. La pregunta, afirma, es si la historia económica nos servirá como una guía. ¿Los cambios en el empleo producidos por la tecnología serán temporales mientras la fuerza de trabajo se adapta, o asistiremos a un escenario de ciencia ficción en el que los procesos automatizados y los robots con capacidades sobre humanas se hagan cargo de una amplia gama de labores humanas? Aunque Katz espera que el patrón histórico se mantenga, "es una pregunta real", afirma. "Si la tecnología resulta lo suficientemente transformadora, ¿quién sabe qué pasará?".

Dr. Watson

Para analizar la pregunta de Katz, merece la pena observar cómo se están instalando en la industria las tecnologías más avanzadas que existen en la actualidad. Aunque no cabe duda de que estas tecnologías se han hecho con algunos trabajos humanos, encontrar pruebas de trabajadores desplazados por las máquinas a gran escala no es tan fácil. Un motivo por el que resulta difícil señalar con precisión el impacto neto sobre el empleo de la automatización es que esta se suele usar para hacer a los trabajadores humanos más eficientes, no necesariamente para sustituirlos. Un aumento de la productividad significa que las empresas pueden hacer el mismo trabajo con menos empleados, pero también permite a las empresas ampliar la producción con los empleados existentes e incluso entrar en nuevos mercados.

Tomemos como ejemplo Kiva, el robot naranja brillante, una bendición para las empresas de comercio electrónico que están arrancando. Creado y vendido por Kiva Systems, unastart-up fundada en 2002 y adquirida por Amazon por 775 millones de dólares (unos 590 millones de euros) en 2012, sus robots están diseñados para correr por grandes naves, recogiendo estanterías con los productos de un pedido y entregándoselas a humanos que los empaquetan. En el gran almacén de pruebas de Kiva y su planta de ensamblado que se encuentra en las afueras de Boston (EE.UU.), flotas de robots se pasean con una energía aparentemente infinita: algunas máquinas recién ensambladas llevan a cabo pruebas para demostrar que están listas para ser enviadas a clientes en todo el mundo, mientras otras esperan para demostrar al visitante cómo son capaces de responder casi instantáneamente a una orden electrónica y traer el producto deseado a la estación de trabajo de un empleado.

Un almacén equipado con robots de Kiva es capaz de manejar hasta cuatro veces más pedidos que un almacén parecido sin automatizar en el que los trabajadores pueden pasar hasta el 70 por ciento de su tiempo yendo de un lado para otro para buscar los productos. (Casualmente o no, Amazon compró Kiva poco después de que un reportaje en prensa revelara que los trabajadores en uno de los gigantescos almacenes de la empresa solían caminar más de 15 kilómetros diarios).

A pesar del potencial que tienen los robots para ahorrar trabajo, Mick Mountz, fundador y director ejecutivo de Kiva duda de que las máquinas hayan eliminado los empleos de muchas personas o que lleguen a hacerlo en el futuro. Para empezar, afirma, la mayoría de los clientes de Kiva son empresas de venta online, algunas de ellas con un crecimiento tan rápido que apenas tienen tiempo para contratar a nuevo personal. Al conseguir que las operaciones de distribución sean más baratas y eficientes, la tecnología robótica ha ayudado a sobrevivir e incluso a expandirse a muchos de estos comerciantes. Antes de fundar Kiva, Mountz trabajaba en Webvan, una empresa de envío de comestibles en línea que fue uno de los fracasos más sonados de la era de las puntocom. A Mountz le gusta mostrar las cifras que demuestran que Webvan estaba condenada al fracaso desde el principio; un pedido de 100 dólares (unos 76 euros) costaba a la empresa 120 dólares (unos 91 euros). Queda claro lo que Mountz pretende explicar: algo tan mundano como el coste de manipulación puede conducir a un nuevo negocio a una muerte temprana. La automatización puede resolver ese problema.

Mientras, Kiva está contratando. Unos globos naranjas, del mismo color que los robots, sobrevuelan múltiples cubículos en su amplia oficina, señalando que el ocupante del cubículo ha llegado en el último mes. La mayoría de estos nuevos empleados son ingenieros de software: mientras los robots son los representantes de la empresa de cara al exterior, las innovaciones menos conocidas de la misma tienen que ver con los complejos algoritmos que guían los movimientos de los robots y deciden dónde se almacenan los productos. Estos algoritmos sirven para que el sistema sea adaptable. Puede aprender, por ejemplo, que determinado producto apenas se pide, así que se debe almacenar en una zona remota.

Aunque este tipo de avances sugieren cómo algunos aspectos del trabajo se pueden someter a la automatización, también ilustran el hecho de que los humanos siguen siendo mejores en determinadas tareas, por ejemplo, empaquetando varios artículos juntos. Muchos de los problemas tradicionales de la robótica -cómo enseñar a una máquina a reconocer objetos, como por ejemplo una silla- siguen siendo básicamente irresolubles y son especialmente difíciles de resolver cuando los robots tienen libertad para moverse en un entorno relativamente desestructurado como una fábrica o una oficina.

Las técnicas que usan una gran potencia computacional han hecho mucho para ayudar a los robots a comprender su entorno, pero John Leonard, profesor de ingeniería en el MIT y miembro de su Laboratorio de Ciencia de la Computación e Inteligencia artificial (CSAIL por sus siglas en inglés), afirma que aún quedan muchas dificultades evidentes. "Parte de mí ve que existe un progreso acelerado; la otra parte ve los mismos problemas de siempre", afirma. "Veo lo difícil que es hacer cualquier cosa con robots. El gran desafío es la incertidumbre". En otras palabras, la gente sigue siendo mucho mejor a la hora de enfrentarse a cambios en su entorno y a reaccionar ante sucesos imprevistos.

Leonard explica que, por ese motivo, en muchas aplicaciones es más fácil imaginar a los robots trabajando con humanos que solos. "Que haya gente y robots trabajando juntos puede suceder mucho antes de que los robots reemplacen a los humanos", afirma. "Esto último es algo que no sucederá a escala masiva en lo que me queda de vida. El taxi semiautónomo seguirá teniendo un conductor".

Uno de los robots más amables y flexibles diseñado para trabajar con humanos es Baxter de Rethink. Creación de Rodney Brooks, el fundador de la empresa, Baxter necesita un entrenamiento mínimo para llevar a cabo tareas sencillas como recoger objetos y meterlos en una caja. Está diseñado para usarse en plantas de fabricación relativamente pequeñas en las que los robots industriales convencionales costarían demasiado y supondrían un peligro muy grande para los trabajadores. La idea, según Brooks, es hacer que los robots se encarguen de los trabajos aburridos y repetitivos que nadie quiere hacer.

Resulta difícil que Baxter no te caiga bien inmediatamente, en parte porque parece tan decidido a agradar. Las "cejas" de su pantalla se levantan en una interrogación cuando está perplejo; sus brazos se retiran sumisa y suavemente cuando se choca. Cuando se pregunta a Brooks por el argumento de que los robots industriales avanzados de este tipo podrían suprimir puestos de trabajo, responde que él no lo ve así. Los robots, según Brooks, pueden servir a los trabajadores de una fábrica como los taladros a los obreros de la construcción. "Los hacen más productivos y eficaces, pero no se deshacen de trabajos".

Las máquinas creadas en Kiva y Rethink se han diseñado y construido ingeniosamente para trabajar con personas, haciéndose cargo de las tareas que los humanos no suelen querer hacer o aquellas que no se nos dan especialmente bien. Están diseñados específicamente para potenciar la productividad de estos trabajadores. Y resulta difícil ver cómo incluso estos robots que son cada vez más sofisticados podrían sustituir a los humanos en la mayoría de los trabajos de fabricación e industriales a corto plazo. Pero los trabajos administrativos y algunos trabajos profesionales podrían ser más vulnerables. Eso es porque la unión de inteligencia artificial y macrodatos empieza a dar a las máquinas una capacidad de razonar más parecida a la humana para resolver muchos tipos de problemas nuevos.

Aunque solo se trate de que la economía está sufriendo un periodo de transición, para muchos éste resulta muy doloroso.

En los suburbios del norte de la ciudad de Nueva York, IBM Research está llevando la computación superinteligente a los dominios de profesiones como la medicina, las finanzas o el servicio de atención al cliente. Los esfuerzos de IBM han dado lugar a Watson, un sistema informático conocido sobre todo por haber ganado a los campeones humanos del concurso televisivo Jeopardy! en 2011. Esa versión de Watson se encuentra ahora en una esquina de un gran centro de datos en las instalaciones de investigación de la empresa, acompañada de una brillante placa que conmemora sus días de gloria. Mientras, los investigadores del complejo ya están probando nuevas generaciones de Watson en medicina, donde la tecnología podría ayudar a los médicos a diagnosticar enfermedades como el cáncer, a evaluar a los pacientes y a prescribir tratamientos.

A IBM le gusta denominarlo computación cognitiva. Básicamente, Watson usa técnicas de inteligencia artificial, procesado y análisis de lenguaje natural avanzados, y cantidades ingentes de datos extraídos de fuentes específicas para la aplicación concreta (en el caso de la sanidad son revistas médicas, libros de texto e información recogida de los médicos u hospitales que usen el sistema). Gracias a estas técnicas innovadoras y a una gran potencia de computación, el sistema puede producir rápidamente "consejos", por ejemplo, la información más reciente y relevante que sirva para guiar el proceso diagnóstico de un médico y las decisiones relativas al tratamiento.

A pesar de la sorprendente capacidad del sistema para darle sentido a todos esos datos, Watson aún está en sus inicios. Aunque tiene capacidades rudimentarias para "aprender" de patrones específicos y evaluar distintas posibilidades, está lejos de tener el tipo de juicio e intuición que suelen ser necesarios en un médico. Pero IBM también ha anunciado que empezará a vender los servicios de Watson a los centros de llamadas para atención al cliente, que no suelen necesitar un juicio humano tan sofisticado. IBM explica que las empresas alquilarán una versión actualizada de Watson para usarla como "agente de atención al cliente" que responde a preguntas de los consumidores. Ya ha firmado acuerdos con varios bancos. La automatización no es nada nuevo en los centros de llamadas, evidentemente, pero la capacidad mejorada de Watson para el procesado del lenguaje natural y su habilidad para tirar de grandes cantidades de datos, sugieren que este sistema podría hablar claramente con los clientes, y ofrecerles consejos específicos incluso sobre preguntas técnicas y complejas. Resulta fácil imaginarlo sustituyendo a muchos agentes humanos en su nuevo campo.

Perdedores digitales

La disputa sobre si la automatización y las tecnologías digitales son responsables en parte de la falta de trabajos actual ha puesto el dedo en la llaga para muchas personas preocupadas por su propio trabajo. Pero esta solo es una consecuencia de lo que ­Brynjolfsson y McAfee creen que es una tendencia más generalizada. Afirman que la rápida aceleración del progreso tecnológico ha ampliado mucho la brecha entre los ganadores y los perdedores económicos, la desigualdad en los ingresos sobre la que se han preocupado numerosos economistas durante décadas. Señalan que las tecnologías digitales tienden a favorecer a las "superestrellas". Por ejemplo, alguien que crea un programa de ordenador para automatizar la preparación de los impuestos podría ganar millones o miles de millones de dólares al mismo tiempo que elimina la necesidad de innumerables contables.

Las nuevas tecnologías están "entrando en el terreno de las habilidades humanas de una forma sin precedentes", afirma McAfee, y muchos trabajos de clase media están en el punto de mira; se ven afectados incluso trabajos que exigen una cualificación relativamente alta en medicina, educación o derecho. "La zona media parece estar desapareciendo", añade. "La superior y la inferior se están separando claramente". Aunque la tecnología sea solo un factor, según McAfee, ha sido uno "poco apreciado", y es probable que sea cada vez más significativo.

No todo el mundo está de acuerdo con las conclusiones de ­Brynjolfsson y McAfee, sobre todo con la opinión de que el impacto de los últimos cambios tecnológicos quizá sean algo distinto a lo que ya hayamos visto. Pero resulta difícil ignorar su aviso de que la tecnología está ampliando la brecha de ingresos entre quienes la dominan y todos los demás. Y aunque la economía solo esté pasando por una transición parecida a otras que ya ha sufrido, es extremadamente dolorosa para muchos trabajadores y habrá que enfrentarse a eso de alguna manera. Katz, de Harvard, ha demostrado que Estados Unidos prosperó a principios del siglo XX en parte porque la educación secundaria empezó a ser accesible para muchas personas en un momento en el que el empleo agrícola se estaba acabando. El resultado, al menos hasta la década de 1980, fue un aumento de los trabajadores educados que encontraban trabajo en los sectores industriales, aumentando sus ingresos y reduciendo las desigualdades, La lección de Katz: las consecuencias dolorosas a largo plazo para la fuerza de trabajo no siguen inevitablemente de los cambios tecnológicos.

El propio ­Brynjolfsson afirma que no podría concluir que el progreso económico y el empleo se hayan separado para siempre. "No sé si podremos recuperarnos, pero espero que podamos", afirma. Pero eso, sugiere, dependerá de nuestra capacidad para reconocer el problema y tomar medidas como aumentar la inversión en la formación y educación de los trabajadores.

"Tuvimos suerte y la productividad creciente tiró de todo lo demás durante gran parte del siglo XX", sostiene. "Muchas personas, sobre todo los economistas, llegaron a la conclusión de que así era como funcionaba el mundo. Yo solía decir que si nos encargábamos de la productividad, todo lo demás se encargaría de sí mismo ; era la estadística económica más importante. Pero eso ya no es cierto". Y añade "Es uno de los oscuros secretos de la economía: el progreso tecnológico sirve para hacer crecer la economía y crear riqueza, pero no existe ninguna ley económica que afirme que todo el mundo se beneficiará de ello". En otras palabras, en la carrera contra la máquina es probable que algunos ganen mientras muchos otros pierden.

Recomiendan el contacto piel con piel entre madre e hijo en las dos primeras horas postparto

La técnica consiste en colocar sobre el pecho al descubierto o en el abdomen de la madre al recién nacido, con la supervisión del personal sanitario para prevenir posibles complicaciones.

El servicio de Neonatología del Hospital Universitari i Politècnic de Valencia recomienda el contacto piel con piel entre madre e hijo en las dos primeras horas postparto. El centro ha acogido la I Jornada' Contacto Piel con Piel' al nacimiento, para dar a conocer las ventajas que conlleva esta práctica en el momento inmediato al nacimiento.

La doctora Isabel Izquierdo, jefa de servicio, ha recomendado "el contacto piel con piel precoz entre la madre y su hijo en las dos primeras horas postparto" ya que, tras el nacimiento, "el recién nacido presenta un estado de alerta tranquila, gracias al cual puede interactuar con su madre e iniciar el amamantamiento de forma espontánea". "Es en este trascurso cuando el contacto piel con piel inmediato y sin interrupciones permite completar la primera toma y finalizar el período de alerta tranquila", ha señalado la doctora Izquierdo.

Se trata de un método que consiste en colocar sobre el pecho al descubierto o en el abdomen de la madre al recién nacido, supervisados por personal sanitario en todo momento, para prevenir posibles complicaciones. Según esta especialista y la doctora Pilar Sáenz, médica adjunta del servicio de Neonatología, el contacto piel con piel es "beneficioso para la estabilización del recién nacido, la vinculación madre-hijo y la lactancia materna".

Mediante esta práctica, se obtienen beneficios tanto a corto plazo al permitir mantener la temperatura y disminuir el llanto del neonato, como a largo plazo, porque se alarga el tiempo de lactancia materna. Para ello se debe tener en cuenta que la "situación idónea" para esta acción es la posterior a un parto natural o cesárea programada, en la que tanto la madre como el bebé se encuentren bien.
Contacto con el padre

En el caso del bebé, debe tratarse de un recién nacido a término sano que respire sin dificultad y presente buen tono muscular. En partos de riesgo, es el pediatra presente quien valorará esta práctica. Cuando la madre por su estado de salud no puede estar en contacto piel con piel con su hijo, se ha comprobado que el contacto inmediatamente tras el parto con el padre "puede ser beneficioso para ambos".

La jornada organizada por el servicio de Neonatología en colaboración con el servicio de Obstetricia y Ginecología, ha contado con la exposición de la doctora Carmen Pallás Alonso, jefa de servicio de Pediatría del Hospital Universitario 12 de Octubre de Madrid y la enfermera Juliana Acuña Muga, ambas certificadas en Cuidados Individualizados en el Desarrollo y la Familia (NIDCAP).

Los cerca de 580 asistentes reunidos en la sesión, entre matronas, pediatras, obstetras, enfermeras de neonatología, residentes y estudiantes de estas especialidades han podido aprender los beneficios de esta práctica a través de las exposiciones de estas dos ponentes. En concreto, se han abordado temas como la necesidad de realizar el contacto piel con piel al momento posterior al parto, los aspectos prácticos de este método, la muerte súbita neonatal en contacto piel con piel y los cuidados inmediatos tras el colocar al bebé encima de su madre.

Fuente: Jano.es

Impactantes datos sobre el tabaquismo en Chile

En el marco del lanzamiento de la cuarta edición del “Atlas del Tabaco” que se realizó por primera vez en nuestro país, se revelaron impactantes cifras sobre este vicio en el mundo y en la región, saliendo a relucir Chile como uno de los países con peores índices. En este momento, hay 145 millones de fumadores en América Latina, de ellos, cerca de 9,7 millones son chilenos, lo que nos pone en el primer lugar de prevalencia de tabaquismo en la región.

“Atlas del Tabaco” es una verdadera radiografía de la realidad que rodea el consumo de cigarrillo a nivel global. Es primera vez que el documento saca una versión en español, siendo este un gran avance para nuestro continente, que por cierto, presenta políticas públicas muy deficientes en esta temática.

El principal objetivo de este estudio, es crear conciencia del daño del tabaco en las personas, el fuerte poder que ejercen las tabacaleras, el gasto del estado en el tratamiento de enfermedades relacionas con su consumo y la importancia de una política de impuestos importante que permita al estado reunir más dinero y desinhibir el consumo en las personas.De los datos que más llaman la atención de la realidad chilena, está el caso de las mujeres. Las chilenas son las más fumadoras de América Latina, con una prevalencia estimada de alrededor del 37%. En tanto, los hombres, también presentan altas tasas con un 44%.

En el caso de los adolescentes alrededor del 40% de las niñas (entre 13 - 15 años) consumen cigarrillos, en comparación con el 28% de los varones de la misma edad, situación que tiene muy preocupadas a las autoridades, ya que este vicio produce alrededor de 14.000 muertes al año (hombres y mujeres).

La economía del tabaco
Chile tiene uno de los cigarrillos más económicos del mundo (clasificación 45 de los 170 países) - en comparación con otros países de América Latina. Ello permite un mayor acceso a los cigarrillos e incide en una mayor prevalencia de tabaquismo.

En Chile, el presupuesto de lucha contra el tabaquismo es de aproximadamente un millón de dólares, mientras que los ingresos del impuesto al tabaco llegan aproximadamente $ 1,2 mil millones. Los costos de la salud del consumo de tabaco entre la población le cuestan al gobierno chileno un estimado de $ 1140 millones de dólares al año.

Para Hana Ross, Directora del Programa Internacional de Investigación para el Control del Tabaco, el precio delas cajetillas en nuestro país propicia que las personas sigan comprando cigarros. “Acá se puede comprar una cajetilla por mil o máximo dos mil 500 pesos, eso es muy barato. Ojalá Chile aumente los impuestos para que el país reciba más dinero y los compradores los consideren muy caros para comprarlos”, recalca.

Recientes avances significativos en Chile
En 2011, de acuerdo con el Atlas del Tabaco, el consumo de tabaco mató a casi seis millones de habitantes, Casi el 80 por ciento de estas muertes ocurren en países de bajos y medianos ingresos. Si la tendencia continúa, mil millones de personas morirán a causa del consumo de tabaco o por exposición a él, durante el siglo 21 - una persona cada seis segundos. A nivel mundial, las muertes relacionadas con el tabaco se han casi triplicado en la última década, y el tabaco es responsable de más del 15 por ciento de todas las muertes de hombres y el 7 por ciento de las muertes de mujeres.

Peter Baldini, director ejecutivo de la Fundación Mundial del Pulmón, dijo. "Con la publicación de este Atlas, estamos poniendo en manos de los gobiernos, los periodistas y los defensores de un plan para ayudar a reducir la masiva ola de muerte y enfermedad si no se adopta ninguna acción. Chile puede tener la mayor carga de consumo de tabaco en América Latina, pero si hay una voluntad política, las estrategias y herramientas otorgadas en el Atlas ayudarán al país a revertir la marea de la epidemia”.

En febrero de 2013, el se promulgó una ley nacional del tabaco para reducir el daño causado por vicio. Esta ley integral está en línea con los requisitos del Convenio Marco de la OMS para el Control del Tabaco (CMCT) Este acuerdo propone prohibir fumar en lugares cerrados, en los espacios públicos, prohibición de publicidad, promoción y patrocinio, incluyendo puntos de venta, prohibir los aditivos a los productos del tabaco durante el proceso de fabricación, y cubrir el 50% del espacio del paquete con advertencias sobre consecuencias para la salud del tabaco. Además, la legislación, que fue promulgada en marzo de 2013, exige una vigilancia más estricta de las medidas de control del tabaco y multas más altas por incumplimiento.

Este avance motivó una distinción especial para el ministro de Salud, Jaime Mañalich en el día Mundial del Tabaco otorgado por la Organización Panamericana de la Salud, el 31 de mayo recién pasado, por sus esfuerzos para hacer frente a la carga de tabaco en el país.

"Chile ha hecho un progreso importante este año por la aprobación de leyes para reducir el impacto del tabaco en la mortalidad por enfermedades relacionadas y por tanto reducir su consumo en mujeres y niñas", dijo John R. Seffrin, PhD, director ejecutivo de la Sociedad Americana del Cáncer. "Aplaudimos el compromiso de detener la ola de tabaco - el factor de riesgo más importante del cáncer en América Latina, con el 26% de todas las muertes por cáncer y el 84% de todas las muertes por cáncer de pulmón en la región atribuidas al tabaco.
Fuente: Terra

El Gobierno británico da luz verde a la creación de hijos de tres ‘padres’ genéticos



El Gobierno británico ha dado luz verde a un revolucionario y controvertido tratamiento de fecundación in vitro que utiliza el ADN de tres personas con el objetivo de impedir el desarrollo de enfermedades mitocondriales.

El Ejecutivo confía en elaborar un borrador de ley a finales de este año para que el tratamiento pueda ser ofrecido a las parejas dentro de dos años, lo que convertiría al Reino Unido en el primer país del mundo que aplica esta técnica, según los medios británicos.

La prueba, desarrollada por expertos de la Universidad de Newcastle (noreste de Inglaterra), es conocida como transferencia de mitocondria y consiste en una modificación genética del embrión al incorporarse una pequeña parte del ADN de un tercer donante sano. Los científicos estiman que una de cada 6.500 personas nace con un desorden mitocondrial.

Las mitocondrias son orgánulos celulares encargados de suministrar la mayor parte de la energía para la actividad celular, sobre todo para el funcionamiento de órganos vitales. Y las enfermedades mitocondriales son desórdenes resultantes de la deficiencia de una o más proteínas en las mitocondrias, por lo que pueden afectar el corazón, el cerebro y los músculos.

La médico que asesora del Gobierno, Sally Davies, se ha mostrado a favor de poner en marcha este tratamiento "lo antes posible".
Davies ha señalado a la prensa que las enfermedades mitocondriales han tenido un "impacto devastador" en las familias, pues hay gente que ha tenido que vivir con estos desórdenes, que son pasados de la madre al bebé.

Antes de que el Gobierno diera luz verde a esta técnica, que deberá ser aprobada por el Parlamento, la Autoridad de Fertilización Humana y Embriología llevó a cabo una encuesta entre la población y concluyó que hay un respaldo bastante amplio a favor de este tratamiento.

El profesor Doug Turnbull, que encabezó esta terapia, dijo que esta es una "noticia excelente" para las familias con enfermedades mitocondriales. "Esto otorga a las mujeres que tienen estos genes defectuosos más posibilidades de reproducción y la oportunidad de tener niños sin enfermedad mitocondrial", apuntó

No obstante, la prueba ha recibido críticas de algunos grupos que consideran que hay un riesgo de caer en el "diseño de bebés". La portavoz del Centro Cristiano de Bioética, Helen Watt, criticó el tratamiento. "Ser padre es recibir niños de manera incondicional. No se trata de fabricar o controlar. Las parejas que no quieren correr el riesgo de pasar [a los bebés] la enfermedad mitocondrial pueden considerar alternativas éticas como la adopción, que son preferibles a una técnica peligrosa de ingeniería genética", agregó Watt.  Fuente: El País.com

sábado, 29 de junio de 2013

Argentina, Haedo, Hospital Güemes: Crean un estudio que permite ver el útero en 3D y detectar infertilidad

Hospital Güemes de Haedo.
Ademas se puede observar si hay obstrucciones en las trompas de Falopio, tumores, polipos y fibromas. Tiene una demora 15 segundos.                                                                                     

Un estudio que permite ver el utero en 3D y diagnosticar la infertilidad fue creado en el Hospital Provincial Güemes de la localidad bonaerense de Haedo y permite recorrer el organo y observar si hay obstrucciones en las trompas, tumores, polipos y fibromas.

Este nuevo metodo, que ya fue empleado con exito, es poco invasivo, rapido e indoloro, permite ver el utero y las trompas de Falopio en 3D, como si se estuviera navegando dentro de ese organo.

El estudio, que se llama histerosalpingografia con navegacion endoscopica virtual, solo se realiza en ese hospital publico de la provincia, que es pionero en tecnicas de fertilizacion.
Alli funciona, ademas, el primer centro de tratamientos gratuitos, de los nueve que se abrieron en la provincia a partir de la ley de fertilizacion sancionada en diciembre de 2010.

Seria muy costoso. Como requiere de un tomografo, personal capacitado y tecnologia de alta complejidad, el estudio en una clinica privada tendria un costo superior a los cinco mil pesos.
En el Hospital Güemes ya se hicieron dos mil estudios de este tipo en forma totalmente gratuita para las pacientes.

Los medicos del Güemes de Haedo contaron que "la nitidez que les ofrece este estudio para observar en detalle el interior del utero nos permitio diagnosticar con precision la presencia de polipos, tumores (comunmente llamados fibromas), obstrucciones de las trompas de Falopio y adherencias, que ocurren cuando las paredes uterinas se pegan entre si, lo que impide la concepcion".

"La paciente solo demora 15 minutos desde que entra al consultorio hasta que se va, y el estudio en si no lleva mas de 15 segundos", conto Oscar Pacheco, jefe del servicio de Diagnostico por Imagenes del Hospital Güemes de Haedo.

Por su parte, el ministro de Salud bonaerense, Alejandro Collia, destaco que "este hospital provincial es un centro de referencia en el tratamiento de la infertilidad" y detallo que "desde la sancion de la ley provincial de fertilizacion, ya se lograron mas de 100 embarazos y mas de 70 nacimientos".

"En el ultimo año y medio ha incorporado este novedoso metodo de diagnostico que, si no se hiciera en un hospital publico, seria inaccesible para muchas parejas", explico Collia.
"Las imagenes que ofrece la histerosalpingografia con navegacion endoscopica virtual son mucho mas claras que las que pueden obtenerse con placas radiograficas", explicaron los medicos del equipo.

En 15 segundos. La mujer debe recostarse en posicion ginecologica en el tomografo multislide. El medico le coloca un especulo, una pequeña sonda y un liquido de contraste. A partir de alli se activa el tomografo y en apenas 15 segundos capta y guarda las imagenes.

Luego, esas imagenes son procesadas con dos software para que los medicos puedan verlo en tres dimensiones y recorrer tanto el utero como las trompas en detalle.
"De esta manera se pueden diagnosticar con precision problemas ginecologicos y de infertilidad, y se evita medicacion o estimulacion hormonal innecesaria", explico Alberto Kiplizlian, ginecologo del Güemes de Haedo.

El medico dijo que antes solo accedian a imagenes radiograficas del utero que resultan de menor nitidez. Gracias al nuevo procedimiento se ahorra tiempo en el diagnostico y en la eleccion del tratamiento adecuado para cada caso.

Infertilidad. Segun datos de la Organizacion Mundial de la Salud (OMS), a una de cada seis parejas le cuesta tener hijos. En terminos medicos esto quiere decir que tiene dificultades para la concepcion natural tras un año de vida sexual activa sin uso de metodos anticonceptivos.

Se estima que el 30 por ciento de los problemas de infertilidad tiene origen en trastornos que afectan al varon, un 50 por ciento se deben a diversos problemas reproductivos que afectan a las mujeres y, por otra parte, existe entre un 10 y un 20 por ciento de los casos se originan en afecciones para los cuales la ciencia medica aun no pudo determinar las causas.
Fuente: La Capital

Pistachos mejoran niveles del colesterol malo

Incluir una ración de frutos secos como los pistachos en la dieta diaria se ha asociado a una reducción del riesgo cardiovascular, de diabetes y de factores de riesgo para el corazón, y a una mejora de la salud en las embarazadas que los consumen.

Concretamente, en el caso de los pistachos hay varios estudios que evidencian los efectos positivos que aportan al perfil lipídico.
En base a las conclusiones obtenidas por investigaciones de las Universidades de Tennesse o Carolina del este, entre otras, existe una mejora considerable en los ratios de LDL colesterol (conocido como colesterol malo) y HDL colesterol.

Frutos secos y aceite de oliva virgen extra
La dieta mediterránea, enriquecida con aceite de oliva virgen extra y frutos secos, reduce el riesgo de sufrir problemas cardiovasculares, según otro estudio, Predimed, publicado recientemente en ‘New England Journal of Medicine’.

Un total de 7.447 personas con edades comprendidas entre 55 y 80 años participaron durante al menos cuatro años. Los participantes en el estudio no tenían problemas de corazón cuando comenzó la investigación, pero tenían riesgo de padecerlos porque tenían diabetes o al menos cumplían con tres de los factores de riesgo, incluyendo tabaquismo, baja presión sanguínea, colesterol elevado, obesidad o sobrepeso, o antecedentes familiares con problemas cardiovasculares.
Para la realización del estudio, los investigadores crearon dos grupos para el estudio: un grupo tomaba frutos secos tres veces a la semana y el otro lo hacía menos de una vez a la semana.

En el grupo que incluía en su dieta frutos secos (entre los que se encontraban pistachos, almendras, avellanas, nueces, cacahuetes, piñones, nueces de macadamia y anacardos) se observó una prevalencia significativamente menor de obesidad, síndrome metabólico y diabetes.

Para el embarazo
Otra investigación sobre la relación entre la ingesta de proteínas y la diabetes gestacional, concluyó que una dieta rica en proteínas vegetales, específicamente frutos secos, en lugar de una dieta rica en grasas animales, estaba asociada con un menor riesgo de padecer diabetes gestacional.
De hecho, la mayoría de las mujeres saben que las pipas son ricas en folatos, un nutriente indispensable para las embarazadas porque que ayudan en la formación y desarrollo de los glóbulos rojos.

El poder nutricional de las pipas
En relación a estas últimas, hay que saber que este fruto seco tiene un gran poder nutricional además de muchas propiedades beneficiosas para la salud.
Ricas en grasas saludables, antioxidantes (ácidos felónicos y Vitamina E) y minerales (zinc y hierro, entre otros), las pipas se convierten en un ‘súper alimento’ –como lo son también las cebollas, el ajo o el brécol– que ayuda a prevenir enfermedades cardiacas y el cáncer gracias al selenio que contiene.
En cuanto a esas grasas saludables, los estudios revelan que las dietas moderadas en grasa, pero altas en grasas insaturadas (mono y poliinsaturadas) también llamadas beneficiosas, pueden ser más saludables que las dietas bajas en grasas. Y, aunque las pipas contienen lípidos, casi el 90% lo componen grasas beneficiosas.

Fuente de juventud
Si a cada fruto seco se le reconocen unas ventajas nutricionales únicas como las propiedades suavizantes y reafirmantes de las almendras en la piel o el alto contenido en Omega de las nueces, a las pipas de girasol hay que otorgarles el mérito de la vitamina E.
Esta y su potente acción antioxidante y antiradicales libres ayudan a reforzar la barrera cutánea frente a los ataques externos.
Ese refuerzo de la función logra que se reactive la producción de fibras de colágeno –proteína que da firmeza a la piel– y estimula el metabolismo cutáneo, es decir, la formación de células nuevas.

A esto hay que sumarle que esta vitamina junto al selenio funciona como antioxidante, frenando el avance nocivo de los radicales libres, responsables del envejecimiento del organismo. Medical Press

viernes, 28 de junio de 2013

“El agua es una mala amante, se olvida muy rápidamente de sus contactos”

La física brasileña Marcia Barbosa desvela que el agua es "muy, muy extraña"
Marcia Barbosa, profesora de
 Física en Universidad Federal
de Rio Grande del Sur (Brasil)
Convivimos con el agua todos los días, sin saber que esta molécula tan especial esconde un secreto: es muy rara. De hecho presenta hasta 67 anomalías, gracias a las cuales existe la vida sobre la Tierra, según comenta a SINC la física brasileña Marcia Barbosa (Río de Janeiro, 1960) desde la Universidad Federal de Rio Grande del Sur. Mediante simulaciones por ordenador, la investigadora ha descubierto que los puentes de hidrógeno están detrás de las extraordinarias propiedades del agua.

¿De verdad que el agua es tan rara?
Con total seguridad, el agua es un líquido muy, muy extraño. Tiene 67 anomalías, que le hacen comportarse de forma diferente a los otros líquidos. Además, la mayoría de estas ‘rarezas’ están ligadas con la vida, con el planeta y con nuestra propia supervivencia. Si el agua fuera un líquido ‘normal’, como el metanol o el tolueno, que obedecen a las leyes habituales de la hidrodinámica, probablemente no existirían los seres vivos.

¿Cuáles son esas rarezas?
Una es la densidad, por ejemplo. La mayoría de los materiales sólidos, como el hierro, se hunden si se los pones en su propio estado líquido, como el hierro fundido. Sin embargo el agua sólida, es decir, el hielo, flota sobre el agua líquida. Si esto no fuera así y se hundiese, el fondo de los ríos y lagos, o los mares en los Polos, se congelarían por completo en invierno y moriría toda la vida que hay en ellos.

Por ejemplo, el calor específico. Cuando es elevado, como en el agua, significa que tienes que suministrar muchísimo calor para subir la temperatura del líquido. Gracias a ello los océanos son grandes reguladores de la temperatura, lo que favorece a la vida, que no soporta bien las grandes variaciones térmicas. También permite que todo el CO2 que está almacenado en el agua marina permanezca ahí y no se evapore con facilidad, lo que aumentaría mucho este gas de efecto invernadero en la atmósfera.¿Qué aportan otras anomalías a los seres vivos?

¿Y más concretamente, al ser humano?
Nosotros mismos somos alrededor de un 80% agua y aprovechamos su calor específico para regular nuestra propia temperatura. En esta tarea también actúan otras propiedades fantásticas del agua, como su buena conductividad, que nos ayuda a regular el cuerpo entero, o su punto de evaporación elevadísimo. Si fuera bajo, sudaríamos mucho sin necesidad de estar en Brasil.

El premio L’Oreál-Unesco que le han concedido este año reconoce su explicación teórica de otras de las anomalías, la difusión. ¿En qué consiste?
La difusión es la capacidad de mover las partículas de un lugar a otro en el espacio. Lo normal es que las cosas más densas, como el tráfico de coches en una gran ciudad, vayan más lentas que las menos densas. Sin embargo el agua se mueve más deprisa cuando tiene más partículas.

¿Los puentes de hidrógeno intervienen en las otras anomalías?
Nuestro equipo ha encontrado una explicación para esta anomalía haciendo simulaciones por ordenador, lo que nos permite investigar este líquido de una forma que no consiguen los experimentos. Así hemos detectado que el oxígeno y los dos hidrógenos que forman cada molécula de agua pueden establecer puentes de hidrógeno –compartir electrones– con las moléculas vecinas. Cuando el sistema se hace más denso, hay más moléculas con las que formar estos puentes, así que estas se mueven más rápidamente de un punto a otro cambiando de compañero, en una especie de juego de voleibol de electrones.

Tenemos una sospecha, una hipótesis: que el agua tiene dos escalas, con y sin puentes de hidrógeno. Esto podría explicar y conectar todas las propiedades y anomalías del agua. Una escala con puentes de hidrógeno, y otra, con las moléculas más cercanas, en la que no se forman esas ligaciones, ya que se necesita una distancia mínima para que ocurra el voleibol de electrones. De esta forma podemos poner otros jugadores en el tablero del agua, con sus dos escalas, e intentar comprender las propiedades de los materiales biológicos e industriales.

En esto se centran sus investigaciones actuales, ¿no?
Efectivamente. En el ámbito biológico tratamos de ver cómo se pliegan las proteínas –algo esencial para que hagan su función– y cómo varía su conductividad térmica dentro de la envuelta de agua. Se trata de ver cómo actúan las partes a las que les gusta el agua (hidrófilas) y las que no (hidrófugas), lo que va a determinar su posición en el espacio. Creemos que los puentes de hidrógeno que se establecen en el agua circundante influyen en el plegamiento y las propiedades de las proteínas, y comprender esto es importante para entender las enfermedades.

¿Qué aplicaciones tendría en el ámbito biosanitario?
En el caso del ADN, por ejemplo, mediante soluciones salinas se puede hacer que tenga carga negativa dentro de una cubierta positiva de lípidos. Así se podría crear una vacuna de ADN que atravesara la bicapa lipídica –negativa– de las membranas celulares. Los virus actúan de una forma parecida cuando agujerean la membrana e inyectan su ADN en el núcleo de la célula infectada. Muchos científicos están interesados en usar este método para hacer terapia de genes. Una amiga veterinaria está construyendo una máquina de ADN basada en esto para aplicarlo en vacas. Aquí, en la región sur del país, somos grandes productores de carne, los cowboys del Brasil.

¿Y respecto a sus estudios con aplicaciones industriales?
En este ámbito trabajamos con los nanotubos de carbono, mucho más fáciles de simular por ordenador que los complejos canales de las membranas celulares. En estos diminutos tubos ocurre algo casi ‘mágico’, mucho más que una anomalía: el agua fluye por ellos mucho más rápido que lo que predicen las ecuaciones. Se supone que si son muy estrechos, las moléculas deberían circular por ellos de forma lenta, y sin embargo pasan como una bala de cañón. ¿Por qué hace esto el agua, y no otros iones que actúan de forma ‘normal’?

¿Ya lo han descubierto?
Aún no, pero si lo descubrimos con nuestro modelo de las dos escalas podríamos llegar a crear filtros muy muy pequeños, nanométricos. Así podríamos retirar del agua sustancias no deseadas. De hecho, disponer de agua limpia va a ser un problema muy serio en el futuro, y quizá haya que buscarla en el océano. Filtrar el agua marina no es fácil y los nanotubos son una promesa. Como científicos debemos pensar que la gente necesita tres cosas básicas: agua, energía y salud.

No hay una base científica para la memoria del agua. La existencia de puentes de hidrógeno podría hacer pensar erróneamente que el agua quizá recuerde con quien los ha hecho hace un rato, pero no. Yo siempre digo que el agua es una mala amante, se olvida muy rápidamente de sus contactos. Las ligaciones del agua son muy promiscuas, se hacen y deshacen rápidamente. No hay emociones. Respecto a los ensayos del investigador japonés, probablemente encontró lo que de antemano quería encontrar. En ciencia son imprescindibles los grupos de control y la estadística, un número suficiente de datos y experimentos que confirmen los resultados. ¿Considera que el agua tiene ‘memoria’, como proponen los homeópatas, o que incluso puede reflejar las emociones, como muestra el japonés Masaru Emoto con sus cristales de hielo?

¿Cuál es la situación de la ciencia brasileña?

En los últimos años, en paralelo al gran desarrollo económico del país, la inversión en investigación ha aumentado, y esto cambia la forma de hacer las cosas. En el pasado teníamos la excusa de que no teníamos becas o dinero para hacer una investigación ambiciosa, de frontera. Ahora ya lo tenemos, tanto los científicos como los industriales, así que debemos asumir la gran responsabilidad de empezar a hacer una ciencia de riesgo, porque la ciencia no avanza sin arriesgarse. Espero que las nuevas generaciones vengan con esta idea.

Brasil es un país muy cerrado en sí mismo y debe abrir sus puertas a los científicos de otras partes del mundo. Esto exige un cambio no solo en la mentalidad, también en las leyes, porque es complejo traer a alguien y ofrecerle un empleo en este país; aunque, por otro lado, es muy grande y tiene espacio para todos. De momento lo más sencillo aquí es conseguir un posdoctorado. Yo ofrezco mi contacto por si algún joven investigador está interesado en colaborar con nosotros. Cuando alguien habla un idioma latino, como el español, se siente aquí más en casa que los que solo hablan inglés. Los latinos somos más alegres, y podemos traer un nuevo estilo a la ciencia. Tengo la seguridad de que el eje del poder científico va a cambiar.¿Hay oportunidades para los científicos españoles en Brasil?

También está cambiando su país. ¿Por qué se están manifestando los brasileños?
Brasil vive un momento único en su historia. Nos encontramos en el umbral del cambio de un país de futuro a un país de presente, pero para hacer esta transición necesitamos tener infraestructuras como las del primer mundo. Y así lo percibe la gente. Somos capaces de construir excelentes estadios para satisfacer a la FIFA, pero no tenemos una educación, una sanidad y unos transportes de calidad, que es lo que realmente demanda la población. Es verdad que dentro de este movimiento general hay unos pocos que tratan de generar disturbios y desestabilizar la nación, pero afortunadamente son una minoría. Tengo la esperanza de que este movimiento va a traer una mejora en las infraestructuras y las condiciones del país. SINC

La liberación de los genes marca nuevas reglas para las patentes biotecnológicas

La liberación de los genes marca nuevas reglas para las patentes biotecnológicas
El 13 de junio el Tribunal Supremo de Estados Unidos decretó que los genes humanos no pueden ser patentados “simplemente por haber sido aislados”, ya que son objetos de la naturaleza. ¿Y qué pasa con otras moléculas o con los microorganismos que se emplean para fabricar fármacos? En realidad, como explican especialistas en la revistaScience, la industria podrá seguir patentando siempre que haga una modificación sobre el producto natural.

Desde el día 13 de junio, en Estados Unidos ya no será posible patentar genes “simplemente por haber sido aislados”. Es la decisión que ha tomado el Tribunal Supremo ante la reclamación presentada en 2009 por la Fundación de PatentesPúblicas (PubPat en inglés) y la Unión Estadounidense por las Libertades Civiles (ACLU por sus siglas en inglés) contra las patentes de la compañía Myriad Genetics.

La sentencia pretende proteger el avance del conocimiento, la investigación y la innovación. Y, aunque ya se preveía esta resolución, tiene implicaciones importantes. Dos semanas después de la noticia, siguen levantándose voces de expertos, investigadores y empresas que analizan las posibles consecuencias. “Es una legislación muy complicada y hace falta mucho conocimiento y reflexión sobre el tema”, indica a SINC Emilio Muñoz, presidente del Comité Científico de la Asociación Española de Biotecnología (ASEBIO).

Para Robert Cook-Deegan, científico de la Universidad de Duke y uno de los autores de un artículo publicado hoy enScience que analiza la nueva situación legal, la decisión es beneficiosa, y explica a SINC que “el Tribunal Supremo ha sentenciado en contra algunas patentes dañinas, que hacían poco bien salvo a los inversores de ciertas compañías”.

Pero, según el autor, el tribunal también “ha sido cuidadoso para no disgustar a la mayoría de las patentes biotecnológicas”. La sentencia deja una puerta abierta. No será patentable el ADN tal y como se encuentra en los seres vivos (ADN genómico o gADN), que simplemente haya sido aislado, por ser un ‘producto de la naturaleza’. Pero sí podrá patentarse una versión del ADN al que se le han eliminado de manera artificial las partes que no codifican información para formar las proteínas, el cADN.

“Hay algunos productos valiosos, como la eritropoyetina (EPO) o la hormona del crecimiento, cuya patente rige sobre el cADN. Al preservar este, el tribunal ha reducido el miedo de la industria de que la sentencia debilitara ciertas patentes importantes en biotecnología”, declara Cook-Deegan.

Además, la decisión de no permitir las patentes del gADN elimina la incertidumbre que hasta ahora había sobre si los investigadores que trabajaban secuenciando genomas completos infringían la ley, y da espacio a la investigación con estos genes.

“Ahora cuando se hace una modificación, por ejemplo la selección del cADN, se convierte en patentable. Me parece una forma razonable de solucionar una situación compleja y difusa. Así la empresa o laboratorio puede proteger su ensayo o prueba de diagnóstico, pero no está impidiendo que los demás también trabajen con el producto”, explica Muñoz.

BRCA ya no es exclusivo de Myriad
La decisión afecta de forma directa a Myriad, una empresa que hace análisis genéticos y que poseía la patente de los genes BRCA1 y BRCA2 –relacionados con el cáncer de mama que justificaron la mastectomía de Angelina Jolie– y, con ellos, el monopolio del test genético para diagnosticar a las mujeres portadoras.

“Myriad Genetix también puede estar contenta. Sus pruebas diagnósticas son patentables, incluso están subiendo las acciones tras la sentencia. Lo que ocurría antes es que estaban impidiendo que otros trabajaran con estos genes para hacer cosas adicionales”, indica Muñoz.

Según explica el artículo de Science, el mismo día de la sentencia se comenzó a debilitar el monopolio de Myriad, cuando siete organismos anunciaron que empezarán a ofrecer diagnósticos para mutaciones de los genes BRCA1 y 2. Además, al liberarse la patente, test multigenéticos incluirán estas variantes cancerígenas. Algunos laboratorios de la competencia de Myriad, como Amby Genetics, ya lo anuncian en sus webs con banners como “Your genes have been freed” (Tus genes han sido liberados).

Hasta ahora el test de Myriad para los genes BRCA 1 y 2 costaba en EEUU más de 3.000 dólares. Según los autores del artículo de Science, las compañías que, como Myriad, hayan confiado en las patentes de gADN, ahora tendrán que competir en otros terrenos como el tiempo de retorno de resultados, la calidad del test, la claridad de los informes, precio o la financiación por parte de los seguros.

“Free the data”
Pero Myriad aún tiene un as en la manga. Según el artículo, desde 1998, la compañía se ha guardado para su uso privado la información obtenida de los millones de análisis que ha hecho. Desde entonces, no ha contribuido con la información sobre mutantes de BRCA a las bases de datos públicas, cosa que no es una obligación pero sí una práctica habitual entre los investigadores para promover el progreso médico. Esto, les confiere, según los autores del estudio, una superioridad de información que les da ventaja al interpretar los resultados de los test.

“Free the data” (Libera los datos) anuncia en rojo la página web de otro laboratorio competidor para poner en valor ante los clientes que ellos sí colaboran con el conocimiento científico global. “Los pacientes que quieran un chequeo, ahora tendrán entre sus opciones laboratorios que contribuyen con las bases de datos públicas”, explican los autores en su publicación.

Pero no solo los test diagnósticos y el gen BRCA se verán afectados. La secuenciación de genomas completos se liberará de la preocupación de estar infringiendo la ley al trabajar con un producto que puede incluir algún gen patentado. Este fue uno de los factores que provocó que instituciones como el Instituto Nacional de Salud de Estados Unidos (NIH) se posicionara a favor de la eliminación de patentes.

A pesar de todo, los escritores del artículo de Science creen que el efecto de esta decisión va a ser “moderado” en la práctica, ya que muchas de las patentes de genes humanos estaban a punto de expirar.

¿Y las proteínas? ¿Y los organismos?
En cuanto a la pregunta de qué pasara con las patentes de otras moléculas de la naturaleza, si estos productos tienen un uso probado, como los fármacos producidos por ciertos microorganismos, no es frecuente que para obtenerlos haya bastado con aislarlos del entorno natural.

Pero en caso de así fuera, su uso más probable será la investigación, que es precisamente la actividad que el Tribunal pretende proteger de la exclusividad de las patentes.
Por otro lado podría ser patentable un microorganismo o producto para un uso concreto, pero nunca el microorganismo por sí mismo, lo que prohibiría su utilización para otros fines.

“La lógica de la decisión se puede extender –explica Cook-Deegan–. Por ejemplo, en células madre, esta sentencia sugiere que cuando se han aislado del cuerpo humano no pueden ser patentadas, pero si las conseguimos a través de ingeniería, con células madre de pluripotencia inducida (iPS), sí”.

La decisión se ha tomado con la intención de incentivar la innovación, y no menciona los derechos del paciente en ningún momento, pero aun así estos se beneficiarán de un mejor acceso al diagnóstico, un precio reducido y disponibilidad de test multigenéticos para evaluar el riesgo heredado de padecer cáncer de pecho o de ovario.

En cuanto a Europa, la legislación ha sido desde un principio reacia a patentar genes. Sus decisiones han sido siempre más cautelosas debido en parte a una compleja situación donde, además de la Oficina de Patentes Europea, cada país tiene su ley particular.

“Ha sido una sentencia bien escrita. No es del todo científicamente coherente, pero en la práctica, libera el análisis del genoma completo sin amenazar décadas de valiosas patentes terapéuticas de proteínas producidas por las células”, concluye Cook-Deegan. SINC

Arti K. Rai and Robert Cook Deegan. "Moving beyond 'Isolated' gene" Science abril 2013. doi: 10.1126/science.1242217