Tendencias 21
Coddii




Un algoritmo identifica los mejores 100 blogs de Internet

También mejora las redes de sensores inalámbricos y podría detectar polución en lagos y ríos


Informáticos de la Universidad Carnegie Mellon han desarrollado un algoritmo capaz de identificar rápidamente el origen de una información. Este algoritmo, llamado Cascades, ha sido usado ya para localizar los 100 mejores blogs de Internet. Además, se está usando para colocar adecuadamente los sensores que forman parte de una red inalámbrica en sistemas de monitorización de la calidad de las aguas o de la integridad de la estructura de un puente. Los investigadores se centran ahora en detectar la polución en lagos y ríos, así como en asegurar el funcionamiento en las redes Wi-Fi de las ciudades. Por Raúl Morales.




Un algoritmo permite acceder al contenido de la red que buscamos. (Tendencias Digitales).
Un algoritmo permite acceder al contenido de la red que buscamos. (Tendencias Digitales).
Ser el primero en acceder a las noticias en Internet y detectar rápidamente un foco de contaminación en cualquier punto de la red de abastecimiento de agua es un problema muy parecido, por lo menos desde el punto de vista de un informático. Ambos problemas pueden ser resueltos gracias a un algoritmo tremendamente versátil desarrollado por investigadores de la Universidad Carnegie Mellon.

En matemáticas, ciencias de la computación, y disciplinas relacionadas, un algoritmo es una lista bien definida, ordenada y finita de operaciones que permite hallar la solución a un problema. Dado un estado inicial y una entrada, a través de pasos sucesivos y bien definidos se llega a un estado final, obteniendo una solución.

Usando el algoritmo Cascades, Carlos Guestrin, que es profesor asistente de informática y aprendizaje automático y sus alumnos, han conseguido compilar una lista con los 100 mejores blogs de Internet que permiten acceder a la mejor información de la web lo antes posible.

Este listado incluye blogs muy conocidos, como Instapundit o Boing Boing y otros más desconocidos, como Watcher of Weasels o Don Surber. “La finalidad de nuestro sistema es vigilar los blogs para detectar la mejor información tan pronto como se produzca y tan cerca de la fuente original como sea posible”, comenta Guestrin en un comunicado de la universidad.

Guestrin, junto Andreas Krause y Jure Leskovec, que son estudiantes de doctorado, han analizado un total de 45.000 blogs (sobre todo los que se linkan a otros blogs) para compilar la lista, prestando especial atención al registro temporal para determinar qué noticias son puestas primero online.

100, demasiado

Pero leer 100 blogs, muchos de ellos con cientos de entradas, es demasiada información para ser asumida por alguien. Para solucionar este problema, los investigadores han usado el algoritmo para compilar una lista de blogs para que el internauta tenga acceso a sólo 5.000 notas publicadas en los blogs, de forma resumida y esquemática para escoger más fácilmente la que más le interesa.

Pero las aplicaciones de este algoritmo no se limitan a facilitar la vida del internauta que busca información en el océano de los blogs. Guestrin y sus estudiantes han utilizado el mismo algoritmo para determinar el número óptimo de sensores y el lugar idóneo para colocarlos, optimizando así la detección de elementos contaminantes en la red de aguas de un pueblo.

El informe de los resultados obtenidos en la búsqueda de blogs, así como los arrojados en la colocación de los sensores en la red de suministro de agua, fue presentado en una conferencia organizada por la Association for Computing Machinery.

“Nada demuestra más a las claras la versatilidad de este algoritmo que su capacidad para resolver dos problemas tan complicados y, a priori, tan diferentes”, comenta Randal E. Bryant, que es Decano de la Escuela de Informática de la Universidad Carnegie Mellon. “Es un buen testimonio del poder del pensamiento computacional. Los informáticos están desarrollando cada vez más métodos comunes para resolver problemas que pueden ser aplicados a muchas disciplinas”.

Sensores inalámbricos

Guestrin empezó a trabajar en este algoritmo en 2004, para compensar el coste de recoger información con la necesidad de recogerla lo más pronto posible y pegada a su fuente original.

Este problema se planteaba en el diseño de redes de sensores wireless (inalámbricos), una tecnología que puede, potencialmente, monitorizar la calidad del agua, la temperatura de un edificio, la proliferación de algas en un lago o la integridad de la estructura de un puente. En todos estos casos, desplegar el número equivocado de sensores o colocarlos en el lugar menos indicado puede hacer perder mucho dinero o puede generar una información pobre o inservible.

El algoritmo Cascades permite el emplazamiento de los sensores usando una propiedad llamada “submodularidad”. En el caso de Cascades, la submodularidad significa que añadir un sensor a una red de cinco tiene mucha más repercusión que añadir ese mismo sensor a una red de diez mil. El algoritmo también tiene en cuenta la propiedad de la localización (la idea de que los sensores que están a cierta distancia proporcionan también información independiente).

El trabajo de Guestrin se centra ahora en detectar la polución en lagos y ríos, así como en asegurar el funcionamiento en las redes Wi-Fi de las ciudades. “Es una bonita teoría aplicada a datos del mundo real”. El desarrollo de Cascades ha contado con el apoyo de empresas como Intel, Microsoft, IBM o Hewlett-Packard.


Raúl Morales
Jueves, 29 de Noviembre 2007
Artículo leído 10332 veces



Nota


1.Publicado por sanchez el 01/12/2007 20:09
Noticia publicada en el periodico el mundo esta semana .

'BUSCADOR ESPAÑOL EN EL TOP 100 mundial'
Programadores españoles crean un buscador para descargar gratis online


EFE
ESPAÑA.- Un grupo de programadores españoles crean el buscador de buscadores . Con una programacion basada en GPL "codigo libre" han desarrollado un buscador que busca y ordena informacion en todos los ordenadores del mundo para la descarga gratuita de mp3 , videos y archivos de texto como letras de canciones.

El buscador a tenido una acogida tremenda entre los internautas , ya que en su 4 mes de vida ronda las 2 millones de visitas al dia .

Direccion del buscador http://www.soypobre.com

Segun el director del proyecto la premisa del buscador es "la cultura no debe tener precio".

Una iniciativa interesante que roza los limites de la legalidad y la pirateria ya que entre sus busquedas aparecen videos y mp3 con derechos de autor .

Noticia extraida de www.elmundo.es

Nuevo comentario:
Twitter

Los comentarios tienen la finalidad de difundir las opiniones que le merecen a nuestros lectores los contenidos que publicamos. Sin embargo, no está permitido verter comentarios contrarios a las leyes españolas o internacionales, así como tampoco insultos y descalificaciones de otras opiniones. Tendencias21 se reserva el derecho a eliminar los comentarios que considere no se ajustan al tema de cada artículo o que no respeten las normas de uso. Los comentarios a los artículos publicados son responsabilidad exclusiva de sus autores. Tendencias21 no asume ninguna responsabilidad sobre ellos. Los comentarios no se publican inmediatamente, sino que son editados por nuestra Redacción. Tendencias21 podrá hacer uso de los comentarios vertidos por sus lectores para ampliar debates en otros foros de discusión y otras publicaciones.

Otros artículos de esta misma sección
< >

Lunes, 7 de Noviembre 2016 - 15:00 Bolotweet, la red social del aula