- Agentes de Internet
-
Contenido
Agentes de Internet
La gran cantidad de información disponible en la web ha hecho necesaria la aparición de herramientas que, imitando el comportamiento de sus usuarios, permiten buscar y recuperar información de forma automática. A estas herramientas se les denomina “agentes”, y hoy día están empezando a ser utilizadas, en una primera fase experimental, por empresas e incluso particulares con el fin de agilizar sus procesos y estrategias de búsqueda de información.
Agentes Web
Un agente de búsqueda es un programa que, imitando el comportamiento de una persona y actuando de forma autónoma, recorre automáticamente internet aprovechando la estructura de enlaces de la web. Un agente de búsqueda puede recuperar un documento en particular, o utilizar algún algoritmo de búsqueda que permita recuperar distintos documentos de la web a los que se hace referencia en un documento fuente u origen, o conforme a unos criterios predefinidos anteriormente por sus usuarios.
Un agente de búsqueda puede realizar las siguientes funciones:
- Realizar consultas con una velocidad y en un conjunto de fuentes mucho mayor que el posible para un usuario humano.
- Consultar a la vez los contenidos de distintos sitios web.
- Informar de las actualizaciones que se producen en los sitios web que son de interés.
- Agilizar las descargas que se realizan de internet.
- Eliminación de correo basura o spam
- Búsqueda de noticias conforme a las preferencias.
- etc.
Tipos de agentes
Los agentes pueden estar instalados en el ordenador o ser utilizados directamente desde la web, y podremos encontrar distintos tipos de agentes que se especializan en diferentes tareas:
- Agentes de búsqueda: El usuario facilita una consulta a un agente una sola vez, y automáticamente el agente la envía a diferentes fuentes o buscadores. Estos agentes pueden ser generales, estar especializados en la búsqueda de música, personas, imágenes, etc.
- Agentes web: Entre otras funciones, las que más se utilizan son para capturar o descargar sitios web enteros y poder leerlos posteriormente offline, o para instalar un servicio de alerta personalizado para estar seguro de que tenemos las últimas noticias de nuestro interés.
- Robots de compra: Permiten comparar los precios de diferentes sitios de comercio electrónico manteniéndonos bien informados antes de comprar, o continuamente al día de los precios que establece nuestra competencia.
- Robots de entretenimiento: Ayudan a sus usuarios a llevar a cabo distintas tareas, como la lectura del correo, etc. Clientes z39.50: Con estos agentes podemos acceder a la vez en un gran número de servidores, siendo especialmente útiles para la búsqueda de información que no está indexada por los buscadores, como bases de datos, etc.
- Mapeadores: que analizan diferentes sitios web y extraen datos sobre su estructura y contenido permitiendo hacer evaluaciones o comparativas entre ellos.
Más información
- Agentland
- BotSpot
- ASOMO
- Sobre Posicionamiento Web Factores Posicionamiento Web
- B. J. Jansen, T.Mullen, A.Spink, J. Pedersen. Automated Gathering of Web Information: An In-depth Examination of Agents Interacting with Search Engines , 2007. http://citeseer.ist.psu.edu/757939.html
- S. Sattanathan, N. C. Narendra, Z. Maamar. Towards Context-Based Tracking of Web Services Security . IiWas 2005, 13-24.
- P. Lara Navarro y J. A. Martínez Usero. Agentes inteligentes en la búsqueda y recuperación de información. Planeta UOC 2004. http://eprints.rclis.org/archive/00006923/01/2004-Lib-Agentes.pdf
Wikimedia foundation. 2010.