Revista decana de la prensa informática española Núm. 185 (ene.-feb. 2007) - Año XXXIII |
Búsqueda
en Novática (Tecnología de búsqueda proporcionada por FreeFind Search Engine) |
|
|
|
Monografía
Búsqueda en la Web del futuro En colaboración con UPGRADE, The European Journal for the Informatics Professional, revista digital promovida por CEPIS (Council of European Professional Informatics Societies) y editada, en inglés, por Novática. Portada (pulse aquí si desea ver la versión a tamaño real en formato PDF -- 296 KB) Concha Arias Pérez © 2007 ATI (Asociación de Técnicos de Informática)
Nota importante: si desea comprar este u otro número de la revista, o suscribirse a élla, infórmese pulsando aquí (los socios de ATI, además de recibir la revista en su domicilio, tienen acceso a las versiones digitales íntegras de todos los números en la IntrATInet de la asociación)
Nota muy importante: los artículos almacenados en PDF requieren el programa Acrobat Reader (gratuito) para su visualización. Sumario
Bloque
editorial Editorial
En
resumen
En colaboración con UPGRADE,
que la publica en
inglés. Editores invitados: Ricardo Baeza-Yates (¡Yahoo!), Paolo
Boldi (Università degli Studi di Milano,
Milan), José María
Gómez Hidalgo (Universidad Europea de Madrid)
Presentación Gary Marchionini [resumen] Aprendiendo a analizar textos en lenguaje natural 10 Giuseppe Attardi [resumen] Snaket: un motor de agrupamiento de resultados de búsqueda 16 Paolo Ferragina, Antonio Gullí [resumen] Naturaleza multimodal de la Web: nuevas tendencias en el acceso a la información 23 Luis Alfonso Ureña López, Manuel Carlos Díaz Galiano, Arturo Montejo Raez, Mª Teresa Martín Valdivia [resumen] Recuperación de información con adversario en la Web 29 Ricardo Baeza-Yates, Paolo Boldi, José María Gómez Hidalgo [resumen] GERINDO: Gestión y recuperación de información en grandes recopilaciones de documentos 36 Nivio Ziviani, Alberto H. F. Laender Edleno Silva de Moura, Altigran Soares da Silva, Carlos A.. Heuser, Wagner Meira Jr. [resumen] Líneas
de investigación en Terrier: un motor de búsqueda para la
recuperación avanzada en la Web 43 Yahoo! Research Barcelona:
Recuperación de Información y Minería
Web
49
Secciones Técnicas Lengua e Informática Traducción automática y homosemantismo globalizador 51 José Mayoralas García [resumen] Redes y servicios telemáticos Las redes de comunicaciones ayer y hoy. Problemas a resolver para una red global 55 Guillermo Ibáñez Fernández [resumen] Tecnologías
y Empresa Referencias
autorizadas 64 SAPientes: la experiencia de participar en la FLL 70 Alonso Alvarez García [resumen][contenido completo en formato PDF - 502 KB] Novática interactiva La privacidad de los datos en Internet 74 Foro de Debate [contenido completo en formato PDF - 231 KB] Programar es
crear
Monografía del próximo número: "Informática para discapacitados visuales" En colaboración con UPGRADE, que la publicará en inglés. UPGRADE, The European Journal for the Informatics Professional, es la revista digital promovida por CEPIS (Council of European Professional Informatics Societies). Editores invitados: Ricardo Baeza-Yates (Yahoo! Research, Universitat Pompeu Fabra), José María Gómez Hidalgo (Universidd Europea de Madrid), Paolo Boldi (Università degli Studi di Milano, Italia). |
En colaboración
con UPGRADE,
que la publica
en
inglés. UPGRADE,
The
European Journal for the Informatics Professional, es la revista
digital
promovida por CEPIS
(Council of European Professional Informatics Societies).
Ricardo Baeza-Yates es
el director de los nuevos laboratorios de investigación de
Yahoo! en Barcelona y en Latinoamérica (Santiago, Chile).
Previamente ha sido catedrático y director del Centro para la
Investigación en la Web del Departamento de Informática
de la Universidad de Chile, y Catedrático ICREA
(Institució Catalana de
Recerca i Estudis Avançats) en el
departamento de Tecnología en la Universidad Pompeu Fabra en
Barcelona. Ricardo es Doctor en Informática por la Universidad
de Waterloo (Canada). Es coautor del libro Modern Information
Retrieval, publicado en 1999 por Addison-Wesley, y
también de la
segunda edición del Handbook
of Algorithms and Data Structures
(Addison-Weesley, 1991). También fue coeditor del libro
Information Retrieval: Algorithms and
data Structures (Prentice-Hall,
1992). Es el primer científico informático elegido para
la Academia de Ciencias de Chile, en 2003.
Paolo Boldi obtuvo
su doctorado en informática en la Universidad de Milán,
donde es actualmente profesor asociado en el Departamento de Ciencias
de la Información. Sus intereses investigadores han tocado muy
variados temas de la informática teórica y aplicada,
tales como: la teoría de dominios, la teoría no
clásica de la computabilidad, la computabilidad distribuida, las
redes anónimas, el sentido de la dirección, y los
sistemas auto-estables. Más recientemente, sus trabajos se han
centrado en problemas relacionados con la World Wide Web, un campo de
investigación en el que también ha aportado sistemas
software utilizados por muchos otros especialistas en el tema. En
particular, ha contribuido a escribir un motor de Recuperación
de Información sobre texto altamente eficiente (MG4J), y una
herramienta de
compresión de grafos (WebGraph) que alcanza las tasas de
compresión habituales en las herramientas actuales.
Ambos han coordinado el libro Software
libre para servicios de información digital, Madrid:
Prentice Hall, 2006.
José
María Gómez Hidalgo
es Doctor en Matemáticas, y ha sido profesor e investigador en
la Universidad Complutense de Madrid, y lo es en la Universidad Europea
de Madrid desde hace 10 años, donde actualmente dirige el
Departamento de Sistemas Informáticos. Sus principales intereses
investigadores incluyen el Procesamiento del Lenguaje Natural y el
Aprendizaje Automático, con aplicaciones al Acceso a la
Información periodística y biomédica, y la
Recuperación de Información con Adversario, con
aplicaciones en el filtrado de correo basura y en la detección
de pornografía en la Web. Ha participado en 10 proyectos de
investigación, dirigiendo algunos de ellos. José
María es coautor de múltiples artículos
científicos centrados en los temas mencionados, que pueden
accederse por medio de su página Web
<http://www.esi.uem.es/~jmgomez/>. Es miembro del Comité
de Programa del CEAS (Conference on
Email and Anti-Spam) 2007, del Spam
Symposium 2007 y de otras conferencias, y ha revisado artículos
de JASIST (Journal of the American
Society for Information Science and
Technology), ECIR (European
Conference on Information Retrieval) y
otras. También es revisor de proyectos para la Comisión
Europea.
Resumen: la búsqueda en la Web evoluciona a medida que cada vez más gente depende de los motores de búsqueda como punto de inicio para resolver múltiples problemas de información. Las técnicas actualmente adoptadas por todos los motores de búsqueda, orientadas a la precisión, han sido excepcionalmente fructíferas en ayudar a las personas a encontrar respuestas a preguntas específicas y en localizar sitios Web con el potencial de ayudarles a resolver problemas de información más generales o complejos. Sin embargo, a medida que la búsqueda en la Web madura, los usuarios esperan más que simples servicios de localización. Los usuarios desean ser capaces de plantear múltiples consultas, mezclar datos de distintos conjuntos de resultados, y moverse dentro y fuera de diferentes sitios Web fácilmente, sin necesidad de aprender nuevas técnicas de búsqueda en cada uno de ellos. Cuando nuestras necesidades de información no son enormemente específicas, o son complejas y evolutivas acabamos explorando muchos sitios Web usando cualquier herramienta que esos sitios nos proporcionen. Los investigadores y desarrolladores reconocen la necesidad de convertir la experiencia de la búsqueda en algo más fluido e interactivo, de modo que la gente pueda concentrar su atención en su necesidad de información, más que en las técnicas de búsqueda. En consecuencia, una motivación para el interés en la búsqueda exploratoria es ayudar a los usuarios a trabajar en espacios Web de modos más integrados, a través de múltiples consultas, sitios Web y conjuntos de resultados. Se trata de un reto excitante pero difícil, y por ello ha atraído considerable atención de la comunidad de la I+D.
Palabras clave: búsqueda exploratoria, diseño centrado en la persona, diseño de interfaces, Recuperación de Información.Resumen: el análisis lingüístico es pocas veces utilizado en aplicaciones de recuperación de información como la búsqueda en la Web, la clasificación o generación automática de resúmenes. Avances recientes en técnicas de aprendizaje automático y estadístico han permitido desarrollar herramientas como analizadores o traductores automáticos que son suficientemente precisas y efectivas para desarrollos a gran escala. Los motores de búsqueda en la Web de generaciones futuras podrían realizar análisis lingüístico de documentos para extraer relaciones semánticas y enriquecer sus índices para proporcionar servicios más sofisticados que la mera recuperación de documentos. Para ilustrar estastécnicas, esbozamos como construir un analizador de dependencias que aprende a partir de ejemplos.
Palabras clave: acceso a la información, análisis sintáctico, búsqueda de respuestas, extracción de información, minería de opiniones, procesamiento del lenguaje natural.Resumen: la
Web es la aplicación de Internet por excelencia. Como tal, y del
mismo modo que pasa con el correo electrónico, es un objetivo
claro para el abuso. El spam ha invadido los motores de
búsqueda, las redes sociales, y aun más, la Web no
sólo es objeto de abuso por los proveedores de contenidos, sino
por sus propios usuarios. La Recuperación de Información
con Adversario (Adversarial Information Retrieval, AIR) se centra en la
clasificación de los contenidos o de su uso en relación
con su forma de abuso, y se enfrenta a un adversario (el abusador), que
tiene como objetivo engañar al clasificador. El spam de
buscadores y el filtrado de contenidos Web son dos ejemplos de tareas
de AIR en la Web. En este trabajo de revisan una serie de problemas de
AIR en la Web, junto con algunas soluciones propuestas. Prestamos
especial atención a la detección de spam basado en
enlaces en motores de búsqueda, y al filtrado de contenidos Web,
como representantes de un amplio rango de técnicas propuestas
para alcanzar grados de efectividad altos en el control del abuso
relacionado con la Web.
Resumen:
las
redes de comunicaciones se encuentran actualmente en una cierta
situación de encrucijada, otra vez a la expectativa de una
hipotética red multiservicio integrada, en esta ocasión
basada en IP y Ethernet. En este artículo describimos la
evolución paralela de las redes de comunicaciones y
telecomunicaciones a través de los organismos de
estandarización más destacados. Se describe el presente
de las redes de comunicaciones y los requisitos de la red global. Se
muestran las carencias de las propuestas actuales, basadas en uso
iterativo de encapsulado, y criterios para arquitecturas deredes
Ethernet escalable compatibles con IPs.
Palabras clave: árbol de expansión, encaminamiento
jerárquico, enrutadores, Ethernet, puentes.
Última actualización: 15 de junio de 2007 | Autor: Llorenç Pagés
Casas |
novatica@ati.es
|
Important notice: The contents of this
website
can be freely reproduced, except for the pages, or portions thereof,
marked
with © or Copyright. Any reproduction must make full
mention
of the source.