Tendencias 21

   




Breves21

Un modelo estadístico predice los brotes de gripe a partir de las búsquedas 'online'  10/11/2015


Un equipo científico, integrado por expertos en estadística, ingeniería e informática aplicada a la salud de la Universidad de Harvard y del Boston Children’s Hospital (EE UU), ha desarrollado un nuevo modelo que mejora los intentos previos del seguimiento en tiempo real de casos de gripe a partir de datos de búsquedas on line.

Según explica a Sinc el investigador mexicano Mauricio Santillana, uno de los autores del estudio que se publica en la revista PNAS, “el nuevo modelo, denominado ARGO (siglas de Auto Regression with Google), “es capaz de predecir los brotes de gripe una o dos semanas antes que los métodos clínicos tradicionales”.

Para ello, “utiliza información de brotes que han sucedido previamente, así como el número de personas que buscan términos relacionados a la gripe, por ejemplo: síntomas de la gripe, fiebre, o remedios para la gripe en el buscador Google”, indica el investigador.

Santillana aclara que “la idea de utilizar las búsquedas de Google para predecir los brotes de enfermedades no es nueva. De hecho, este motor de búsqueda distribuía datos estimativos de la actividad de los brotes de gripe en diversas localidades y países a través de su proyecto Google Flu Trends, que fue cancelado en agosto de este año. Lo que es nuevo", agrega, "es la manera de combinar la información epidemiológica histórica y las búsquedas on line para producir estimaciones más precisas de los casos de gripe en la población”.

ARGO también incorpora información de los Centros para el Control y la Prevención de Enfermedades de EE UU sobre la estacionalidad de los brotes de gripe pasados, así como de los cambios en los comportamientos de búsqueda on line a lo largo del tiempo.

El autor destaca que la información epidemiológica, proporcionada por el nuevo método, “podría ser utilizada para mejorar la toma de decisiones de salud pública en tiempo real. Por ejemplo, para la distribución de personal y recursos hospitalarios en regiones que más lo necesiten ante brotes inesperados de esta enfermedad”.

Además, el modelo es flexible, autocorregible, robusto y escalable, lo que le convierte en una potente herramienta que se podría utilizar para el seguimiento en tiempo real de otros eventos sociales en múltiples resoluciones temporales y espaciales, dicen los investigadores.


Más información

 
SINC


La NASA detecta 'zarcillos de fuego' en la atmósfera de Marte  06/11/2015


Las eyecciones del Sol generan unos flujos iónicos en el campo magnético de Marte que pueden alcanzar los 5.000 km en el espacio. El espectacular fenómeno lo ha detectado la nave Maven de la NASA mientras analizaba la atmósfera marciana. El viento solar puede estar detrás de las perdidas de atmósfera en el planeta rojo.

Esta semana la portada de la revista Science ilustra lo que ocurrió en el campo magnético de Marte cuando en marzo de este año fue bombardeado por una poderosa eyección de masa coronal del Sol. Las trayectorias de los iones que escapaban de la atmósfera marciana generaron una impactante imagen donde aparecen penachos y zarcillos –similares a los tallos en espiral de la vid o el guisante– que emanan, como fuego, del planeta rojo.

Durante la eyección solar, los instrumentos de la nave que vigilaban el campo magnético marciano detectaron rotaciones magnéticas fuertes que expandían los zarcillos de fuego hasta 5.000 kilómetros de distancia en el espacio.

Al mismo tiempo, los dispositivos que monitorizaban la ionización atmosférica observaron importantes picos y detectaron que los iones viajaban concentrados a lo largo de esos flujos del campo magnético. Se estima que su velocidad es mucho mayor –aproximadamente diez veces más– de la habitual. En concreto, se encontraron O2+ y CO2+, y los científicos quedaron sorprendidos al ver que los iones O+ ascendían en la atmósfera mucho más arriba de lo esperado.

“Las observaciones y los modelos muestran un aumento en la tasa de escape de iones al espacio durante eventos como este”, señalan los investigdores, “así que la perdida de iones asociada a las eyecciones solares durante los comienzos de la historia del planeta pudo ser un factor importante en la evolución de su atmósfera”.

Los datos sugieren que la atmósfera marciana se ha ido pelando a lo largo del tiempo por los efectos de las tormentas solares, ya que cuando estas se producen, aumenta la erosión de la capa gaseosa que rodea el planeta rojo.

Los responsables de la NASA interpretan que este proceso "parece haber desempeñado un papel clave en la transición del clima de Marte desde un ambiente inicial cálido y húmedo, que pudo haber albergado vida en la superficie, hacia el que presenta hoy el árido y frío planeta".

En el mismo número de Science se publican otros tres estudios con los datos de Maven. Uno de ellos se centra en una tenue aurora que apareció en el hemisferio norte, que se sumergía en la atmósfera hasta la cota más baja confirmada en cualquier aurora, unos 60 km.

Un tercer trabajo aborda los resultados de dos ocasiones en las que Maven se sumergió en la atmósfera superior del planeta rojo para determinar la naturaleza de su termosfera e ionosfera. Durante estas exploraciones, detectó un importante gradiente de temperatura vertical, entre los 140 y 170 km.

El cuarto trabajo analiza la detección de polvo en altitudes que oscilan entre 150 a 1.000 kilómetros, a pesar de que no existen procesos conocidos que puedan levantar concentraciones significativas de partículas desde una superficie planetaria hasta esas altitudes. Los autores piensan que es polvo de origen interplanetario.


Más información

 
SINC


Un estudiante de Ingeniería Aeroespacial gana el concurso Innovaciencia con un bastón electrónico para invidentes  04/11/2015

De izquierda a derecha, Martínez Casais, Niclós y Soto. Fuente: CSIC.

Narciso Soto (18 años), que ha ideado un bastón electrónico para invidentes, ha sido el ganador de la tercera edición del certamen Innovaciencia, para menores de 30 años, organizado por el Consejo Superior de Investigaciones Científicas y la Fundación Española para la Ciencia y la Tecnología

Soto ha conseguido el primer premio del concurso, dotado con 2.500 euros y una tablet, por su proyecto B-Compass, un bastón electrónico para invidentes con un sensor de distancia orientable que detecta la presencia de obstáculos. B-Compas supone una mejora frente al bastón tradicional y al perro guía porque facilita la autonomía de la persona invidente en entornos desconocidos.

Asesorado por personal de la ONCE, el joven ganador ha diseñado este prototipo que avisa, mediante una vibración en el mango del bastón, de la presencia de obstáculos incluso en altura o de vehículos en un cruce, además de facilitar la orientación con tecnología GPS. Tanto el software como el hardware de este prototipo han sido realizados con herramientas libres (programas e impresora 3D open source), lo que abarata mucho los costes: entre 65 y 75 euros. Soto acaba de empezar Ingeniería Aeroespacial.

Licenciada en Ingeniería Industrial, Susana Niclós (23 años) ha obtenido el segundo premio ex aequo por Smartplug, una red de enchufes programables y controlables de forma remota a través de Internet. Gracias a ella a es posible apagar o encender cualquier electrodoméstico, controlar la temperatura y humedad de un lugar o conectar alarmas antirrobo en la casa, entre otras aplicaciones.

Smartplug está pensado para usarse de forma autónoma o como base para desarrollar nuevos proyectos y aplicaciones personalizadas, por lo que todo el código fuente es libre y ha sido comentado por la autora.

Carlos Andrés Martínez Casais (25), también ingeniero industrial, ha desarrollado un cargador/transmisor de electricidad inalámbrico multidispositivo, que ha merecido también el segundo premio (dotado con 1.000 euros y una tablet para cada uno). El transmisor puede alimentar con electricidad distintos dispositivos (móvil, tablet, televisor, ventilador, lámparas, etc.) a una distancia de hasta dos metros sin utilizar cables, lo que permitiría, por ejemplo, cargar el móvil sin sacarlo del bolsillo o mientras se usa.

Otra de las ventajas de este sistema es que transmite la electricidad a través de muros o tabiques, lo que resulta útil en entornos donde no existe una instalación eléctrica, como un jardín.


Más información

 
CSIC


El 2,4% de las citas científicas son negativas, revela un estudio con lenguaje natural  04/11/2015


El número de veces que los artículos académicos son citados por publicaciones posteriores es uno de los indicadores consagrados por el tiempo que se utilizan para evaluar el nivel y la productividad académica. Pero no todas estas citas son positivas, y una investigación realizada con procesamiento de lenguaje natural demuestra que hasta una de cada 50 citas en una importante revista de inmunología eran básicamente críticas.

Estas citas negativas pueden señalar limitaciones, inconsistencias o errores en el trabajo anterior. El estudio encontró que estas citaciones negativas eran más propensas a criticar trabajos muy leídos, y que las críticas se centraban en secciones específicas de los artículos. Las citas negativas tienden a provenir de eruditos que estaban cerca de los autores de los artículos originales en cuanto a disciplina académica y distancia social, pero al menos a 240 kilómetros de distancia geográfica.

La investigación, realizada por autores del Instituto de Tecnología de Georgia (Atlanta, EE.UU.), la Universidad de Toronto (Canadá) y el Instituto de Tecnología de Massachusetts (Boston, EE.UU.), puede ser el primero en cuantificar y examinar estas citas negativas sistemáticamente. Los autores esperan ampliar su estudio a otras disciplinas, y creen que su trabajo, en última instancia, podría dar lugar a reexaminar cómo se utilizan las citas en el mundo académico.

Según Alexander Oettl, profesor asistente de la Escuela Scheller de Negocios del Tecnológico de Georgia y uno de los tres co-autores del estudio, “las citas negativas realmente son diferentes de las citas objetivas”.

Los investigadores comenzaron con 15.731 artículos que se habían publicado en el Journal of Immunology, la principal revista académica de inmunología. De esos artículos, extrajeron 76.355 citas, referidas a 146.891 artículos.

Mediante un proceso manual, crearon una serie de citas que se utilizaron para entrenar a un programa de procesamiento de lenguaje natural, que clasificó el resto de las citas, ya fuera como objetivas o negativas. El proceso identificó 18.304 citaciones negativas, alrededor del 2,4 por ciento de las citas totales estudiadas.

“La mayoría de estas citas negativas parecen discrepar con los “resultados” y la “discusión” de los documentos, por lo que realmente no están tratando de derribar la teoría”, dice Oettl en la nota de prensa del Georgia Tech. “Pueden estar tratando de limitar los resultados, apuntar incompatibilidades con otras investigaciones, señalar defectos estadísticos o corregir otros problemas.”

En su estudio, los autores señalan la relativa rareza de estas citas negativas, y especulan que eso podría o bien mostrar un papel “limitado, sin influencia” de la crítica en la ciencia, o una renuencia a criticar.


Más información  

 
DailSoftware


El deshielo de la Antártida occidental aumentará el nivel del mar en tres metros en 10.000 años  03/11/2015

Nivel de deshielo de la capa de hielo de la Antártida occidental para el año 2700. Imagen: Feldmann et al. Fuente: PIK.

La placa de hielo de la Antártida occidental pierde cada vez más masa, un fenómeno que se aprecia especialmente en la zona del mar de Amundsen. Para confirmar la inestabilidad de esta región, un equipo de científicos alemanes ha desarrollado una serie de simulaciones por ordenador a largo plazo. Los resultados demuestran que en los próximos siglos o milenios su deshielo provocará un aumento de tres metros en el nivel del mar.

Desde hace décadas, las observaciones por satélite muestran que los glaciares del mar de Amundsen están perdiendo masa a un ritmo acelerado y el deshielo de la capa de hielo de esa región puede haber alcanzado ya un punto de no retorno. Estudios anteriores habían demostrado la inestabilidad de este mar, al examinar su evolución a corto plazo con modelos numéricos.

Un nuevo estudio, liderado por científicos del Potsdam Institute for Climate Impact Research (PIK, Alemania), da un paso más y ofrece una simulación a largo plazo.

Los resultados confirman que la región es inestable. “Nuestros modelos por ordenador revelan que con la inestabilidad de la relativamente pequeña región de Amundsen, todo el área de la capa de hielo del oeste de la Antártida colapsará y contribuirá a un aumento global del nivel del mar de tres metros”, dice a Sinc Johannes Feldmann, primer autor del trabajo.

Según los científicos, es posible que estemos presenciando el principio de un periodo de desintegración prolongada del hielo marino al océano. La retirada local de la capa de hielo y su adelgazamiento “es muy probable que continúe en el futuro”, apunta Feldmann, quien añade que las observaciones durante las próximas décadas confirmarán que estamos ante una retirada a gran escala de esta zona de la Antártida.

Las simulaciones indican que la región se desestabilizará tras 60 años de niveles de deshielo actuales. Pero para los autores, esta zona ya es inestable, por lo que este umbral puede ser rápidamente superado. Y si esto ocurre, en los próximos siglos el aumento de tres metros puede ser inevitable. “El nivel del mar aumentará un metro durante los primeros 2.000 años. Alcanzaremos los eventuales tres dentro de unos 10.000 años”, afirma el científico alemán. Pero “puede ser más rápido”, advierte.


Más información

 
SINC


Santos Juliá: España es un Estado Federal sin instituciones federales  02/11/2015

Santos Juliá: España es un Estado Federal sin instituciones federales
España es un Estado federal que carece de instituciones federales, declara el historiador y ensayista Santos Juliá en una entrevista concedida a Tendencias21TV. También declara que un referéndum consultivo no necesita una reforma de la Constitución, sino una reforma de la Ley de Referéndum.

Añade que nuestro sistema político se ha federalizado a partir de la vigencia anterior de un Estado unitario y que ahora es preciso recorrer una trayectoria inversa: que las autonomías establezcan conjuntamente con el Estado central un acuerdo de futuro, para construir un proceso federal de abajo a arriba.

Aunque no hay un marco institucional para este proceso, hacen falta políticos con la claridad y voluntad suficiente para crearlo y ponerlo en marcha. Señala Santos Juliá que el Estado español tal como se concibió en la transición está agotado, y demanda una reforma que debe incluir la reforma de los estatutos de autonomía.

Comentando las elecciones catalanas, Santos Juliá destaca que el movimiento nacionalista ha fracasado en primera prueba electoral, ya que no ha alcanzado la mayoría. Considera que el movimiento nacionalista es una minoría muy fuerte que no puede proclamar la independencia, pero que sí está en condiciones de volver a la mesa de negociación con el Gobierno que salga de las elecciones de diciembre.

Añade que proclamar la independencia sin una mayoría clara de votos, en una consulta en la que cuente una persona, un voto, es un dislate. La mayoría clara de votos se establece con el 60 por ciento de los votos, tal como se codificó cuando la experiencia de Canadá, y no consiste sólo en la mitad más uno.

Siguen las turbulencias

Santos Juliá se refiere también a la situación actual de España y considera que las elecciones de diciembre van a poner un punto y seguido al periodo de turbulencia que por primera vez ha experimentado nuestro sistema de partidos.

Añade que vamos a tener un parlamento mucho más vivo en el que las minorías que hay serán capaces de convertirse en mayorías y tendrán que hacer política, convirtiendo el parlamento en su escaparate, entrando en otra forma de gobernar.

Para Santos Juliá, los procesos son largos: “yo creo que hemos tenido un gran periodo de turbulencias, motivado por una manera de gobernar que llegó a su agotamiento y que coincide con una crisis económica para la que no había recursos para contestar” explica.

“Cuando se actúa en democracia se toman unos caminos y se dejan otros, pero siempre surgen caminos posibles. Por todo ello, creo que estamos ante un cambio, pero ni siquiera las revoluciones son origen de un nuevo mundo, no hay nuevos amaneceres, no hay punto final”.
 
T21


Un programa informático encuentra fragmentos 'fósiles' de genes en el genoma de levaduras y gusanos  02/11/2015

Juan Jiménez y Antonio Pérez-Pulido. Fuente: UPO.

Científicos del Centro Andaluz de Biología del Desarrollo (CABD, centro mixto Universidad Pablo de Olavide-CSIC-Junta de Andalucía) han desarrollado un programa bioinformático, AnABlast, que identifica fragmentos “fósiles” de genes en los genomas, lo que ayudará a entender la historia evolutiva de cada genoma.

Se conocen ya tantos millones de genes, que una forma práctica para identificarlos en un nuevo genoma es buscar la existencia de genes parecidos en otros. Pero cuando hablamos de genes muy diferenciados, sin parecido obvio con otros, o genes donde su comienzo y final no es fácil de delimitar, su búsqueda es difícil y con frecuencia estos genes más complejos y novedosos pasan desapercibidos.

Los investigadores Juan Jiménez y Antonio Pérez-Pulido han desarrollado una nueva estrategia in sílico para encontrar genes y fragmentos “fósiles” de genes en los genomas, incluso cuando esos genes o fragmentos no tengan parecido con otros genes conocidos, o estén tan fragmentados que no se identifiquen inicio y fin de su secuencia codificadora.

La estrategia es parecida a la que se usa para descifrar mensajes codificados de los espías. Aunque no se sepa lo que significa, una pequeña secuencia que se encuentra con más frecuencia que el azar en un texto posiblemente es una secuencia que significa algo, y esa idea, aplicada al análisis de la secuencia de un genoma, es lo que le ha permitido a los autores desarrollar un programa bioinformático, que discrimina dónde hay información con significado biológico simplemente por su alta frecuencia en las bases de datos respecto a la frecuencia por azar. Así, AnABlast permite discernir regiones con genes (que codifican proteínas) de las que no.

Los autores han aplicado el nuevo método al genoma completo de la levadura de fisión, y aun siendo uno de los organismos modelo mejor estudiados, el análisis con AnABlast les ha permitido identificar varios genes nuevos que pasaron desapercibidos en los procedimientos convencionales de anotación de genes. Incluso han encontrado fragmentos “fósiles” provenientes de otros genomas, o de reordenaciones ancestrales, algo que sin duda ayuda a entender la historia evolutiva de cada genoma.

Además de la levadura, han demostrado que AnABlast es igualmente útil en genomas de organismos superiores como el del gusano C. elegans, lo que pronto les llevará a realizar el análisis AnaBlast del genoma humano.


Más información

 
UPO


Las noticias sobre fármacos contra el cáncer abusan de los superlativos  30/10/2015


El uso de superlativos para describir fármacos contra el cáncer en los artículos de noticias, como "gran avance", "revolucionario", "milagro", o en otros términos grandilocuentes, es habitual incluso cuando aún no se han aprobado, no hay datos clínicos o no han mostrado beneficios globales, según un artículo publicado en línea por la revista JAMA Oncology.

La omisión del contexto médico o el uso de descripciones infladas puede dar lugar a malentendidos entre los lectores. Vinay Prasad, de la Universidad de Ciencia y Salud de Oregón (Portland, EE.UU.) y sus coautores examinaron el uso de descriptores modestos y superlativos en artículos de noticias con respecto a medicamentos contra el cáncer.

Los autores buscaron 10 superlativos (entre ellos "cura", "transformador", "innovador" y "maravilla") unidos a la expresión "medicamento contra el cáncer" en un buscador de noticias de Google entre el 21 y el 25 de junio de este año. Los autores encontraron 94 artículos de 66 agencias de noticias con 97 superlativos que satisfacen los criterios del estudio, referidos a 36 fármacos concretos.

La mitad de ellos todavía no habían recibido la aprobación de la Food and Drug Administration de Estados Unidos, ni siquiera para una indicación. Para 5 de los 36 fármacos se utilizaron superlativos en ausencia de datos clínicos con humanos.

La mayoría de los superlativos fueron utilizados por los periodistas (55 por ciento); médicos (27 por ciento); expertos de la industria (9 por ciento); pacientes (8 por ciento) y un miembro del Congreso (1 por ciento).


Más información

 
JAMA/T21


Un modelo basado en redes neuronales predice inundaciones con 24 horas de antelación  29/10/2015

Miembros del grupo Matras. Fuente: Universidad de Jaén.

El grupo de investigación Modelización de la Atmósfera y Radiación Solar (Matras) de la Universidad de Jaén ha desarrollado un sistema que predice el caudal de un río con 24 horas de anticipación para prevenir inundaciones.

El modelo define la cantidad de agua del cauce mediante redes neuronales artificiales y se ha materializado ya en una herramienta de alerta temprana que utilizan los servicios de emergencias. La novedad es la introducción de los datos meteorológicos, ya que la mayoría de los estudios previos basan sus predicciones en la medición del caudal de río en zonas anteriores al tramo que se analiza y los desembalses de pantanos.

“Nosotros introducimos la predicción de lluvia en toda la cuenca. Para ello, usamos el modelo americano: el Weather Research and Forecasting debidamente parametrizado, que permite llegar a resoluciones de 1 kilómetro", explica el responsable de la investigación, Joaquín Tovar.

Los investigadores han aplicado las Redes Neuronales Artificiales, que usan como entradas la predicción de precipitaciones basada en datos meteorológicos y en los proporcionados por el Servicio Automático de información Hidrológica. El método está inspirado en la forma en que funciona el sistema nervioso de los animales, donde existe un conjunto de datos de entrada, que se interconectan entre sí para producir un estímulo de salida.

En este modelo, los expertos consideran como parámetros de entrada la predicción meteorológica, la precipitación en los días anteriores y los desembalses de los pantanos en tramos anteriores a la zona de análisis.

Tras procesar todos estos aspectos, el sistema ofrece una información de salida: el caudal en un tramo en un momento determinado, un nivel de alerta y la predicción del alcance de la inundación en caso de que ésta llegara a producirse.

Los científicos lo han aplicado a la cuenca del Guadalquivir, con todos los aportes hídricos procedentes de la Sierra de Segura, Sierra Morena y los pantanos que vierten a la cuenca antes de la localidad de Marmolejo (Jaén), una zona que ha sufrido repetidas inundaciones.


Más información

 
Universidad de Jaén


Dail Software, dos años analizando textos de forma automática  28/10/2015


Deducir del discurso de un político qué temas le interesan más; analizar Twitter en busca de propaganda a favor de la bulimia; o estudiar la evolución de la sociedad a partir de los discursos del Premio Cervantes. Son algunas de las aplicaciones más visibles de los programas de ingeniería lingüística de Dail Software, una spin-off de la Universidad Politécnica de Madrid (UPM) que se abre camino en el pujante sector del lenguaje natural, y a la que dedica un reportaje Cinco Días.

Hacer sistemas que entiendan lo que decimos; que busquen información de manera inteligente, varios pasos más allá que los buscadores actuales; que respondan preguntas independientemente de la lengua en la cual se encuentre la respuesta: es decir, el tratamiento automático e inteligente del multilingüismo. De todo eso se ocupan empresas como Dail.

El proyecto nació en 2011, al obtener el tercer premio del concurso Actúa UPM, y cristalizó en 2013. Dail ha obtenido 563.000 euros en dos rondas de financiación, la última hace muy poco.

Su proyecto más importante es una herramienta de email multilingüe para la interacción mediante correo electrónico entre personas de diferentes lenguas, permitiendo el intercambio de mensajes de forma automática y de calidad.

Dail Sostware, miembro de eGauss Holding,  es patrocinador principal de la Cátedra Unesco en Tecnologías Lingüísticas, TecLin, encargada de crear un Máster Internacional en Ingeniería lingüística. La Cátedra, de la UPM, está conectada con varias universidades de Sudamérica, y favorece además la enseñanza infantil en lenguas maternas en aquellos países con lenguas en riesgo de desaparición.

Más información
Redacción T21


Una ecografía del tamaño del cuello del útero predice el parto con una semana de antelación  28/10/2015


Una prueba habitualmente utilizada para detectar posibles partos prematuros podría ayudar a afinar la estimación de la fecha en la que las madres darán a luz. Según una investigación, liderada por el Hospital Universitario Thomas Jefferson (Philadelphia, EE UU), la medición de la longitud del cérvix uterino permitiría establecer, con bastante precisión, si las madres darán a luz en la semana siguiente a la realización de la prueba.

"La medición de la longitud del cuello del útero con una ecografía alrededor de las semanas 37 a 39 puede darnos una mejor idea de si una madre va a dar a luz pronto o no", explica el autor principal del estudio, Vincenzo Berghella, director de Medicina Materno-Fetal en este hospital.

Según los autores, cuando el cuerpo de una mujer se prepara el nacimiento, se producen una serie de cambios. El cuello del útero, que ha impedido que el bebé descienda por el canal de parto durante los nueve meses de embarazo, empieza a ablandarse. Cambia su forma habitual de "helado de cono", a uno corto, cuya cima queda comprimida contra la curva del útero. Cuando este proceso empieza demasiado temprano, marca el comienzo de un parto prematuro.

Hasta ahora, la medición del cuello del útero se había utilizado para ayudar a detectar a las mujeres con un alto riesgo de parto prematuro –cuanto más corto el cuello uterino, más probabilidades de que el parto sea inminente–. Dado que este procedimiento es considerado el método de referencia para detectar este tipo de alumbramientos, numerosos científicos habían investigado si se podría utilizar para ayudar a predecir también la fecha del nacimiento en los embarazos que llegan a término. Los resultados eran dispares: algunos estudios mostraban un pobre valor predictivo y otros una mayor capacidad de precisión.

Los investigadores reunieron datos de cinco estudios prospectivos que incluían 735 mujeres con embarazos de un solo hijo y que tuvieron a sus bebés en la posición cabeza abajo adecuada. Al observar los resultados, descubrieron que cuando el cuello uterino medía más de 30 milímetros, la mujer tenía un menos de un 50% de posibilidades de dar a luz en un plazo de siete días. Sin embargo, cuando el cuello uterino medía 10 milímetros o menos, las probabilidades aumentaban hasta el 85%, con lo cual era bastante plausible que el alumbramiento se produjera en una semana.


Más información

 
Sinc


¿Cómo suena la arquitectura pasada, presente y futura?  28/10/2015

Fuente: UPV.


Acusvirt, el grupo de investigación en acústica virtual de la Universitat Politècnica de València (UPV) y la Universitat de València (UV), ha presentado, en el congreso Tecniacústica 2015 -que reunió la semana pasada a más de 200 expertos nacionales e internacionales del sector en la UPV- los resultados más recientes de su investigación, centrada en la aplicación de la acústica arquitectónica y virtual al estudio del patrimonio material e inmaterial de la Comunidad Valenciana.

Alicia Giménez, investigadora del Departamento de Física Aplicada UPV e integrante del comité organizador del congreso, explicó que, "gracias a las nuevas tecnologías y al avance en la técnica, la virtualización de todo el patrimonio y las técnicas de auralización (proceso mediante el que se simula la sensación de escuchar sonido tridimensional en el interior de una sala, dadas unas determinadas posiciones de oyente y fuente/s, y su/s señal/es) pueden ser archivadas en bases de datos, disfrutadas y puestas a disposición del público en general, que tiene la posibilidad de conocer cómo suena la arquitectura pasada, presente y futura".

Los investigadores han desarrollado modelos geométricos en 3D que reproducen la estructura de los monumentos. Posteriormente, tras calcular la respuesta de los mismos ante una señal sonora, ya sea musical o hablada, han calibrado un modelo acústico que posibilita la creación de un recorrido virtual que permite la visión y audición de los entornos analizados.

En este marco, el equipo de investigación, que trabaja ahora mismo en la virtualización del Misteri d'Elx, ya ha desarrollado modelos de la Lonja de los Mercaderes, la Capilla del Santo Cáliz, el Palau de les Arts, el Teatro Principal de Valencia e, incluso, edificios en ruinas o desparecidos como el Corral de Comedias de la Olivera (Valencia) y el Monasterio de La Murta (Alzira).
 


Más información

 

UPV


El comportamiento social modula el nivel de testosterona  27/10/2015


La testosterona ha sido considerada una hormona eminentemente masculina, cuya presencia estaba determinada por factores innatos. Sin embargo, un estudio, liderado por Universidad de Michigan (EE UU), indica que la influencia cultural que ha llevado tradicionalmente al sexo masculino al ejercicio del poder y ha relegado al femenino a un segundo plano ha podido influir en la existencia de niveles de testosterona más altos en los hombres.

El trabajo, publicado en la revista PNAS, examina cómo los niveles de testosterona cambian en comportamientos asociados tradicionalmente con el sexo masculino, como la competición y el ejercicio del poder. Para ello, el equipo científico, dirigido por Sari M. van Anders, analizó el nivel hormonal de 41 participantes –que además eran actores profesionales– antes y después de realizar un monólogo que representaba una interacción laboral en la que se realizaba una ostentación de poder.

El guion del monólogo fue escrito por un director de teatro con el apoyo de los autores del estudio de manera que el texto permitiera actuaciones enmarcadas en diferentes géneros. Se solicitó a los actores, hombres y mujeres, que representaran el monólogo dos veces –una en un estilo masculino y otra en un estilo femenino– para discernir si los cambios en los niveles de testosterona se debían a la demostración de poder en sí mismo o al estilo de actuación interpretando a un hombre o a una mujer.

Los autores descubrieron que al realizar el monólogo los niveles de testosterona se elevaban en las mujeres, independientemente del sexo al que encarnaran durante la representación.

Según los científicos, estos resultados sugieren que el comportamiento competitivo exhibido en el monólogo pudo haber modulado la testosterona más que la caracterización masculina, y que las normas sociales que fomentan comportamientos diferentes entre hombres y mujeres pueden contribuir a la existencia de niveles más altos de testosterona en los varones.

Los autores señalan que anteriormente la diferencia en los niveles de testosterona era concebida ampliamente como una diferencia de sexo, es decir, que su mayor o menor presencia reflejaba masculinidad y feminidad. En conjunto, esto llevaba a una caracterización de la testosterona como la esencia de la masculinidad, fija, invariable y determinada únicamente por factores innatos. Sin embargo, este trabajo hace hincapié en la existencia de la neuroplasticidad y la modulación social.

“Claramente, la testosterona responde al contexto social, pero siguen existiendo enormes brechas en la comprensión de cómo la plasticidad neuroendocrina está modulada por las normas sociales, especialmente por las relacionadas con el género”, concluyen.


Más información

 
Sinc


Hallan micotoxinas que pueden dañar la salud en cinco muestras de cafés comercializados en España  26/10/2015


Las micotoxinas son una familia de compuestos producidos por hongos filamentosos, como Aspergillus o Fusarium, que pueden causar enfermedades y problemas para la salud. Ahora, investigadores de la Universidad de Valencia han analizado su presencia en 103 muestras comerciales de café recogidas en diversos supermercados de su ciudad.

Los resultados, que publica la revista Food Control, confirman la presencia de fumonisinas, aflatoxinas, tricotecenos y micotoxinas emergentes en concentraciones que oscilan entre 0,10 y 3.570 microgramos por kilogramo (μg/kg).

Estas sustancias pueden llegar a ser cancerígenas, hepatotóxicas y afectar al sistema hormonal e inmunológico, pero no se puede determinar si los niveles encontrados son preocupantes porque en la actualidad aún no se ha realizado la evaluación del riesgo para la población y, por tanto, apenas existe normativa al respecto.

“La única micotoxina legislada es la ocratoxina A, que hemos detectado en bajas concentraciones en el café, aunque en cinco de las muestras se excedían los límites máximos permitidos”, explica a Sinc Emilia Ferrer, una de las autoras.

La normativa europea fija un contenido máximo de ocratoxina A –asociada a nefropatías y tumores uroteliales en humanos– en los productos alimenticios de 5 μg/kg en el café tostado en grano o molido, y de 10 μg/kg para el café soluble o instantáneo.

Las cinco muestras que superaron esos valores fueron dos de café descafeinado (6,20 y 9,30 μg/kg), otras dos de café en cápsulas con cafeína (6,91 y 11,43 μg/kg), y una de café en cápsulas descafeniado (32,40 μg/kg), que superó más de seis veces el límite de la normativa.

“La ausencia de legislación en el café para el resto de las micotoxinas detectadas, sus efectos tóxicos y los valores de concentración obtenidos hacen necesario prestar especial atención a estos contaminantes en un producto tan consumido”, apunta la doctora Ferrer.

La investigadora también considera necesario “estudiar la influencia de los diferentes tratamientos tecnológicos, que se aplican en la elaboración del café sobre el contenido de las micotoxinas en el producto final, para evaluar la exposición de la población, así como analizar los procesos de producción y secado de este producto para evitar o disminuir la contaminación”.

En la realización de los análisis, los investigadores han utilizado una metodología denominada 'cromatografía líquida acoplada a espectrometría de masas en tándem', donde se combina una técnica de separación de moléculas a otra para identificarlas según su peso. En la actualidad estudian la posible reducción o interacción de las micotoxinas con los componentes del café y otros alimentos, porque no todas se comportan igual, además de observar cómo afectan los distintos tratamientos tecnológicos, como las temperaturas y los tiempos, por ejemplo.


Más información

 
SINC


Alimentos impresos en 3D para personas con problemas para masticar  26/10/2015


El proyecto financiado con fondos europeos Performance ha presentado su propuesta de futuro, consistente en comidas impresas en 3D destinadas a personas mayores para las cuales resulta difícil masticar y tragar, es decir, con disfagia, a causa, por ejemplo, de ictus o demencia.

A diferencia de las dietas actuales para estas personas, consistentes en purés y alimentos pretriturados y que reducen el apetito y conducen a deficiencias nutritivas, la propuesta pasa por reproducir el aspecto y el sabor de la comida real y la adecúa a las necesidades de cada paciente. El equipo del proyecto explica que "los alimentos triturados y colados se devuelven a su forma original, adquiriendo así la misma textura y aspecto, pero con ventajas sanitarias".

Los alimentos se enriquecen con nutrientes específicos en función del tamaño, el peso, el sexo y las deficiencias de cada paciente, y pueden ajustarse para garantizar una dieta equilibrada. Este proceso está completamente automatizado gracias a un algoritmo informático. El sistema vigila el estado nutricional de cada paciente y enriquece de forma automática las comidas programadas semanalmente.

"La comida triturada debe quedar firme tras su impresión pero lo suficientemente líquida como para que salga por los cabezales", explica Pascal de Grood, fundador y director ejecutivo de Foodjet, empresa asociada al proyecto. "Empleamos una tecnología basada en la impresión por chorro. Un agente gelificante da forma a la comida triturada y colada". El sistema se sirve únicamente de ingredientes naturales y un texturizador también natural.

Para evitar los puntos fríos y calientes que surgen al calentar la comida en el microondas, han desarrollado un "envase activo" consistente en una bandeja hendida con perforaciones reflectoras de microondas situadas por encima y por debajo del recipiente.

La semana pasada se llevaron a cabo varias catas en residencias para la tercera edad. El 54 % de los encuestados calificó la textura de la comida como buena, el 79 % consideró que las comidas estaban calentadas de un modo homogéneo y el 43 % optaría por una comida de Performance en caso de enfrentarse a dificultades para tragar o masticar.

Matthias Kück, coordinador del proyecto, reconoce que la impresión de alimentos en 3D aún debe evolucionar para poder ser viable comercialmente. Esto implica que podría pasar cierto tiempo antes de poner en marcha la tecnología al completo, pero cada uno de los productos desarrollados se podrá aprovechar muy pronto por separado.


Más información

 
Cordis


La serotonina regenera las motoneuronas de los peces cebra tras una lesión medular  23/10/2015

Antón Barreiro, en el laboratorio. Fuente: USC.

Investigadores de la Universidad de Santiago de Compostela han demostrado que, en el pez cebra, la serotonina promueve la regeneración de motoneuronas tras una lesión medular. Los resultados se publican en Cell Reports.

Antón Barreiro, del departamento de Biología Celular de la USC, junto con investigadores de la Universidad de Edimburgo (Escocia), trabaja en el estudio de la impresionante capacidad de regeneración espontánea que muestran los peces cebra tras una lesión medular.

A diferencia de los humanos y del resto de mamíferos, el pez cebra adulto es capaz de recuperar la natación de forma natural pocas semanas después de sufrir una lesión medular completa, algo que en el caso de los humanos provoca la pérdida irreversible de la función locomotora y sensorial por debajo del lugar de la lesión.

Más allá de la estabilización de los pacientes y terapias de rehabilitación, de momento no existe una terapia efectiva que promueva la regeneración y recuperación funcional. “Nuestra idea de trabajo", explica Barreiro, "es descubrir qué vías moleculares se activan e intervienen en el proceso de regeneración tras una lesión medular en el pez cebra”.

Los investigadores han demostrado que la serotonina, conocida por su papel como neurotransmisor en el sistema nervioso, promueve tanto el desarrollo embrionario de motoneuronas espinales como la regeneración de estas tras una lesión medular en adultos de pez cebra.

Las motoneuronas son las neuronas de la medula espinal que inervan la musculatura para controlar su contracción y relajación. En humanos, enfermedades degenerativas o daños traumáticos medulares provocan la muerte de estas neuronas y, por tanto, la pérdida de la capacidad de controlar la musculatura corporal.

“Estudios previos demostraron que en el pez cebra adulto se generaban nuevas motoneuronas tras una lesión medular, pero nunca en humanos adultos. Ahora nosotros evidenciamos el importante papel de la serotonina en la proliferación de las células madre que dan lugar a nuevas motoneuronas en la médula espinal, lo que da pie al desarrollo futuro de terapias que promuevan la producción o supervivencia de esas motoneuronas en humanos”, concluye Barreiro.


Más información

 
USC/SINC


Tecnología punta, también para pantallas de proyección  22/10/2015


Hoy día, las pantallas quizá sean los dispositivos tecnológicos que más abundan y que más se utilizan, por lo que los especialistas se afanan al máximo en mejorarlas y hacerlas avanzar.
 
Sobre todo estamos familiarizados con las pantallas de ordenadores y teléfonos móviles. En estas, se vaticinan cambios radicales para los próximos años. Por ejemplo, ya se está desarrollando una tecnología que permitirá  estirar las pantallas para volverlas tridimensionales u otra que hará posible que las pantallas se comuniquen entre sí, sin molestarnos para nada.  Pero también avanzan en tecnología y perfeccionamiento otro tipo de pantallas: las pantallas de proyección. 

Normalmente, el usuario común suele centrarse en los proyectores, dispositivos muy útiles y “golosos”, sobre todo en la actualidad, ya que cada vez los hay de más tipos, cada cual más atractivo: algunos cuentan con alta definición para cine en casa; otros pueden proyectar en 3D, con una simple conexión a un reproductor 3D (Blu Ray 3D, PlayStation, etc.); y otros incluso son “de bolsillo”, y pueden transportarse fácilmente a cualquier sitio.
 
Pero, a pesar del interés que despiertan los proyectores, para garantizar una óptima experiencia de visionado, las pantallas de proyección también resultan fundamentales, pues la calidad que podemos obtener de un proyector está estrechamente relacionada con la calidad de la pantalla. Por suerte, en este terreno, la tecnología tampoco se ha quedado atrás; y ha aportado mejoras notables.
 
En términos generales, una pantalla de proyección es una instalación que básicamente consiste en una estructura con una superficie y un soporte, que se usa para desplegar imágenes ante una audiencia. Estas pantallas pueden permanecer instaladas de forma permanente –como las pantallas de cine- o ser móviles. Estas últimas suelen sujetarse, en el momento de su uso, a la pared o con un trípode, por ejemplo.
 
Todo aparentemente muy sencillo, pero la tecnología subyacente a estos dispositivos en la actualidad no lo es tanto. Gracias a ella, hoy día, las pantallas de proyección presentan una amplia variedad de gamas : las hay motorizadas (que solo con apretar un botón se desenrollan automáticamente), ultra portátiles (con un diseño muy compacto, para su fácil transporte) o completamente planas (gracias a mecanismos de tensión especiales).
 
En el horizonte, además, se abren perspectivas fascinantes. Por ejemplo, investigadores del Robotics Institute de la Carnegie Mellon University de Estados Unidos, han desarrollado una tecnología de proyección que permite generar imágenes en tres dimensiones sobre superficies acuosas. De llegar a comercializarse, quizá, algún día, contemos con pantallas de proyección formadas, simplemente, por gotas de agua.  

 
Redacción T21


La música agresiva puede aumentar la ansiedad, sobre todo en los hombres  22/10/2015


Imágenes del cerebro han revelado cómo son las respuestas neuronales a los diferentes tipos de música, y que estos afectan realmente a la regulación de las emociones de las personas.

El estudio ha demostrado, asimismo, que especialmente los hombres que procesan sus sentimientos negativos con música reaccionan negativamente a la música agresiva y triste.

Dado que la regulación emocional es un componente esencial para la salud mental, una mala regulación emocional se relaciona con trastornos psiquiátricos
del estado de ánimo, como la depresión. Los musicoterapeutas clínicos conocen bien el efecto de la música sobre las emociones, y saben cómo utilizar la música para ayudar a sus pacientes a mejorar su estados de ánimo e incluso a aliviar ciertos trastornos anímicos.

Pero muchas personas también escuchan música por su cuenta, como medio de regulación de sus emociones, y hasta ahora no se sabía mucho acerca de cómo esto puede afectar a su salud mental.

Ahora, científicos del
Centre for Interdisciplinary Music Research de la Universidad de Jyväskylä, en Finlandia, y de la Universidad Aarhus de Dinamarca han investigado este punto en una serie de personas.

Han descubierto que
la ansiedad y el neuroticismo o inestabilidad emocional eran mayores en aquellos participantes que tendían a escuchar música triste o agresiva para expresar sus sentimientos negativos. Esto sucedía sobre todo en hombres. 

Para investigar los procesos de regulación de las emociones vinculados a la música, los investigadores registraron la actividad neuronal de los participantes mientras escuchaban música alegre, triste o agresiva. Lo hicieron con la técnica de resonancia magnética funcional (fMRI) , que permite captar imágenes de la actividad del cerebro. "Esperamos que nuestra investigación aliente a los musicoterapeutas a informar a sus pacientes acerca del uso de la música más allá de las terapias", concluyen los autores del estudio.


Más información


 
Redacción T21


El ruido del tráfico está relacionado con los partos prematuros y el bajo peso al nacer  21/10/2015

La investigadora Cristina Linares. Fuente: ISCIII.

Un estudio realizado por investigadores de la Escuela Nacional de Sanidad del Instituto de Salud Carlos III (Madrid) ha relacionado, por vez primera, el ruido del tráfico en la ciudad de Madrid con variables implicadas en el embarazo. La investigación acaba de ser publicada en Epidemiology.

El trabajo, liderado por la investigadora Cristina Linares, muestra que existen asociaciones estadísticamente significativas entre el ruido de tráfico diurno en Madrid y el aumento de partos prematuros (aquellos inferiores a las 37 semanas de gestación), el bajo peso al nacer (peso inferior a 2,5 kg) y la mortalidad fetal (niños que nacen muertos o que fallecen en las 24 primeras horas de vida).

Según este estudio, informa el Instituto en una nota, durante el periodo 2001-2009 nacieron cerca de 23.000 niños con bajo peso, más de 24.000 partos fueron prematuros y la mortalidad fetal fue de 1.200 niños.

Los investigadores estiman que la disminución de 1 decibelio ponderado (según lo percibe el oído humano) en los niveles medios de ruido diurno en Madrid podría reducir el número de nacidos con bajo peso en un 6,4 %; los partos prematuros en un 3,2 % y la mortalidad fetal en un 6 %. Este efecto es independiente del que produce la contaminación atmosférica química, que también influye en el embarazo.

Los investigadores apuntan que el ruido puede ser un factor estresante capaz de influir en el tramo final de la gestación.

 
ISCIII


Los corazones de hombres y mujeres envejecen de manera distinta  20/10/2015


Un equipo de científicos, liderado por la Universidad de Johns Hopkins (EE UU), ha realizado escáneres de resonancia magnética a cerca de 3.000 hombres y mujeres de entre 54 y 94 años sin enfermedades cardíacas previas. Los resultados de las pruebas, realizadas en seis hospitales de EE UU en 2002 y 2012, revelan cómo cambia el corazón de ambos sexos a lo largo del tiempo.

“La enfermedad cardíaca puede tener diferente patofisiología (cambios en las funciones de órganos y células asociados a la enfermedad y el envejecimiento) en hombres y en mujeres”, dice João Lima, profesor de Medicina y Radiología en la Universidad Johns Hopkins, quien añade que se demuestra la necesidad de personalizar los tratamientos ante estas importantes diferencias biológicas.

El estudio, publicado en la revista Radiology, es el primero en usar imágenes de resonancia magnética a largo plazo para mostrar el envejecimiento del corazón. Los científicos han podido así obtener imágenes más detalladas e información sobre la estructura (tamaño y volumen) y el funcionamiento del músculo de este órgano, gracias a las imágenes en 3D de su interior y exterior.

A lo largo de los diez años de estudio, el peso del ventrículo izquierdo (la cámara principal que bombea de sangre el corazón) ha disminuido una media de 8 gramos en los hombres y de 1,6 gramos en mujeres. En ambos casos se hace más pequeño, por lo que entra menos sangre en el órgano, que bombea menos cantidad al resto del cuerpo.

Con la edad, el músculo que rodea al ventrículo izquierdo de los hombres tiende a hacerse más grande y denso, mientras que el de las mujeres mantiene su tamaño o incluso encoje.

“Un músculo más voluminoso y un ventrículo más pequeño predicen un alto riesgo de fallo cardíaco relacionado con la edad. Sin embargo, según las variaciones observadas, hombres y mujeres pueden desarrollar la enfermedad por razones diferentes”, apunta investigator John Eng, profesor en la misma universidad y coautor del trabajo.

Además, la capacidad de la cavidad cardíaca (cantidad de sangre que el ventrículo izquierdo contiene en cada latido) disminuye en ambos sexos, pero lo hace de manera más precipitada en las mujeres, en unos 13 mm, mientras que en los hombres disminuye en menos de 10 mm.

Aunque los investigadores no revelan el porqué de estas diferencias entre el tamaño, el volumen y la capacidad de bombeo del corazón, estas ocurren independientemente de otros factores de riesgo que afectan al tamaño y rendimiento del músculo: el peso corporal, la presión sanguínea, los niveles de colesterol, el ejercicio físico y el consumo de tabaco.

El trabajo permitirá adecuar los tratamientos en hombres y mujeres destinados, de manera general, a reducir el volumen del músculo del corazón a largo plazo y estimular su rendimiento. Sin embargo, en mujeres esta medicación podría no ser tan beneficiosa, ya que el tamaño de su corazón tiende a encoger o a mantenerse igual con la edad.


Más información

 
SINC


1 ... « 2 3 4 5 6 7 8 » ... 192