Novática
es la revista de ATI (Asociación de
Técnicos de Informática)
Nota importante: Se permite la reproducción y difusión de este artículo por cualquier medio, excepto si está marcado con © o Copyright, debiéndose en todo caso citar su procedencia Important notice: This article can be reproduced and disseminated via any medium except if marked with © or Copyright. Full mention of the source is mandatory |
Novática 148 (noviembre-diciembre 2000)
Secciones Técnicas
Referencias autorizadas
Esta página contiene las recomendaciones de lecturas y visitas a sitios web que los coordinadores de las Secciones Técnicas de Novática ofrecen en cada número de nuestra revista.
En este número contamos con recomendaciones sobre los siguientes temas:
Sección
técnica «Enseñanza Universitaria de la Informática»
(Cristóbal Pareja Flores)
Tema: Concursos de programación
En distintos lugares del mundo se vienen celebrando regularmente concursos de programación. Cada uno está dirigido a un público restringido, normalmente por zonas geográficas, y tiene su propio sistema de selección de concursantes. Pero el contenido de estos certámenes (los problemas planteados) es un material de gran interés para todos los alumnos y profesores de informática. Es inútil ser exhaustivo con la relación de convocatorias por su gran número: basta con entrar en un buscador cualquiera y solicitar información sobre programming contest para obtener una larga lista. Resulta más práctico relacionar unos pocos bien elegidos (espero), por su cercanía, por su importancia y por el interés de su contenido.
- OEI: Olimpiada Informática Española, <http://aula-ee.com.oie/>.
- IOI: International Olympiad in Informatics, <http://olympiads.win.tue.nl/ioi/index.html>. La selección de los participantes se lleva a cabo por países, que tienen sus respectivas olimpiadas nacionales. En <http://olympiads.win.tue.nl/ioi/noi/index.html> se relacionan muchas de las páginas correspondientes.
- Annual ACM International Collegiate Programming Contest: <http://acm.baylor.edu/acmicpc/>.
En todas estas páginas pueden encontrarse completos archivos de problemas, relaciones de otros certámenes de programación, y otros recursos diversos.
Nota del Editor: Novática está publicando
en su sección «Programar es crear» los problemas, con
soluciones comentadas, de la edición de 2000 del concurso de ACM,
como ya hizo con el de 1997.
Sección
técnica «Informática Gráfica»
(Roberto Vivó)
The VRML 2.0 Handbook, Jed Hartman y Josie Wernecke, Addison-Wesley,
1997. ISBN 0-201-47944-3. El VRML (Virtual Reality Modeling Language)
se ha convertido en el estándar de descripción de mundos
3D en la web. Este texto guía al lector en el desarrollo de un mundo
virtual basado en la pirámide azteca de Tenochtitlán. El
libro está bien estructurado comenzando con la presentación
de un entorno ya creado y pasando rápidamente al desarrollo propio
apoyado con ejemplos. Se detalla la arquitectura del VRML soportada por
nodos en un grafo acíclico dirigido repasando cada nodo, su comportamiento
y sus principales atributos. También se comentan las cuestiones
relativas a la publicación de mundos en la web. Un libro recomendable
para una introducción al VRML.
Sección Técnica
«Ingeniería del Software»
(Luis Fernández Sanz)
Tema: Recursos web sobre calidad en desarrollo de software
1. Documentos sobre calidad de software en Parasoft TechPapers. <http://www.parasoft.com/papers/index.htm> Aunque se trata de una empresa, Parasoft, que comercializa herramientas de control de calidad y pruebas (sobre todo, para C/C++), este sitio incluye algunos documentos técnicos de cierto interés (aparte de documentos específicos de tipo promocional sobre sus productos y sus contribuciones a la calidad) sobre depuración de código, pruebas, etc.
2. <http://www.tiac.net/users/pustaver/> (Feb 2002: http://www.swquality.com/users/pustaver/index.shtml).
Otra interesante página de enlaces a recursos sobre calidad del
software, algunos de ellos muy conocidos (incluso mencionados en esta sección
de Novática) y otros sorprendentes (tiras cómicas,
por ejemplo) y muy útiles (por ejemplo, <http://www.stsc.hill.af.mil/>,
con multitud de documentos especializados).
Sección Técnica
«Interacción Persona-Computador»
(Julio Abascal González)
Tema: Interfaces inteligentes
Los diseñadores de sistemas de interacción persona-computador se han visto frecuentemente obligados a recurrir a la Inteligencia Artificial para crear nuevas interfaces debido a la creciente complejidad que éstas presentan, a la necesidad de que evolucionen con el usuario, a la demanda de interfaces más flexibles y capaces de interaccionar con otros componentes, etc. Da la sensación de que este área, que ha podido estar algo estancada a juzgar por la poca abundancia de bibliografía actualizada al respecto (sobre todo, si se compara con la superproducción de publicaciones en otros campos de la interacción persona-computador), se está reavivando a través del uso de agentes inteligentes en el diseño de la interfaz. Dentro la bibliografía que mencionamos, hay algunas publicaciones bastante antiguas pero que por una razón u otra pueden resultar útiles.
Interfaces inteligentes en general: en lo que se refiere expresamente a estas interfaces, podemos citar los siguientes libros:
M. Helander (ed.) Handbook of Human-Computer Interaction.North Holland, 1990, es una gruesa «enciclopedia» que trata todos los aspectos de la interacción persona-computador. Concretamente el capítulo VI, dedicado a la Inteligecia Artificial, contiene artículos dedicados al diseño de interfaces inteligentes, interfaces de lenguaje natural, los factores humanos en los sistemas expertos y en la adquisición del conocimiento, etc.
M. Helander, T. K. Landauer y P. V. Prabhu (eds.). Handbook of Human-Computer Interaction. Second, Completely Revised Edition. Nort-Holland, 1997, es la segunda edición del libro previamente mencionado, con un 80% de nuevos contenidos. En este caso, el capítulo VII, programación, diseño de interfaces inteligentes y sistemas basados en el conocimiento, dedica algunos artículos a los aspectos de usuario de los sistemas basados en el cocimiento, paradigmas del diseño de interfaces inteligentes, obtención del conocimiento para el diseño de agentes software, sistemas de ayuda a la toma de decisiones y aplicaciones.
M.T. Maybury, W. Wahlster. (eds.) Readings in Intelligent user interfaces. Morgan Kauffman, 1998. Este libro ofrece una visión actualizada de las técnicas comúnmente empleadas en el diseño de interfaces inteligentes. Está dividido en apartados relativos al diseño de presentación multimedia, diseño de gráficos automatizados, disposición automatizada, modelado del usuario y del discurso, interfaces basadas en modelos, agentes interfaz, evaluación, etc.
J. W. Sullivan & S. W. Tyler (eds.) Intelligent user Interfaces ACM Press, 1991, contiene un compendio de artículos reunidos bajo los epígrafes: I. Comunicación multimodal, II. Modelos, planes y objetivos, III. Diseño de presentaciones dinámicas y IV. Herramientas basadas en conocimiento para diseño de interfaces. A pesar de tener 9 años, bastantes capítulos conservan la vigencia, seguramente debido al prestigio de muchos de los autores.
Además, para una información actualizada, es conveniente revisar los proceedings, <http://www.acm.org/catalog/proceedings/iui.html>, publicados por la ACM, de las sucesivas ediciones anuales de la «International Conference on Intelligent User Interfaces», <http://www.iuiconf.org/>, organizada por ACM SIGART y SIGCHI.
Interfaces multimedia inteligentes: en lo que se refiere expresamente a estas interfaces, hay que citar los siguientes libros:
R. M. Kaplan. Intelligent Multimedia Systems. A Handbook for Creating Applications. Wiley, 1997, es un libro muy práctico que combina hábilmente la multimedia con el diseño de sistemas inteligentes. Introduce las herramientas necesarias para las aplicaciones inteligentes, la representación del conocimiento, modelos, para describir posteriormente algunos ejemplos simplificados: el diseño de un tutor y ciertas aplicaciones del procesamiento de lenguaje natural.
M. T. Maybury (ed.) Intelligent Multimedia Interfaces. AAAI/MIT Press, 1993, reúne diversos artículos, muy heterogéneos, dentro de tres apartados: 1. Diseño de presentaciones automatizadas, 2. Interfaces multimedia inteligentes y 3. Aspectos arquitecturales y teóricos.
Interfaces autoadaptables (adaptive interfaces): no hay demasiados libros dónde escoger. Mencionaremos dos, un poco antiguos, pero interesantes:
J. U. Malinowski, M. Schneider-Hufschmidt, T. Kühme (eds.). Adaptive user interfaces: principles and practice. North Holland,1993. Es una buena introducción a los aspectos teóricos y a algunas aplicaciones prácticas de la adaptatividad en las interfaces. Algunos de los artículos pertenecen a los autores más destacados en este área.
Browne, P. Totterdell & M. Norman (eds.). Adaptive user interfaces, 1990. A pesar de ser un libro antiguo contiene ejemplos de sistemas adaptables muy sencillos que pueden ser usados en la enseñanza de las interfaces autoadaptables.
Por otro lado, para una información actualizada en lo referente
al modelado de usuario y a las interfaces autoadaptables, es imprescindible
la revista User Modeling and User-Adapted Interaction: An International
Journal. <http://umuai.informatik.uni-essen.de>.
Sección técnica
«Internet»
(Alonso Álvarez García,
Llorenç Pagés Casas)
Tema: Estadísticas de uso de Internet
Cuentan que en Internet abunda la información sobre la propia Red. Efectivamente, si nos ponemos a buscar información cuantitativa sobre la utilización de Internet, nos podremos convencer un poco más de ello.
En cuanto al uso en general de la Red y a nivel español contamos con los datos facilitados por la Asociación de Usuarios de Internet <http://www.aui.es/>, la Asociación para la Investigación de Medios de Comunicación <http://www.aimc.es/>, la Asociación Española de Comercio Electrónico <http://www.aece.org/> y CommerceNet Español <http://www2.commercenet.org/web/>. Una de las actividades relevantes de este tipo de asociaciones consiste precisamente en la realización y publicación de encuestas de utilización de la Red entre usuarios y empresas.
A nivel internacional, los datos suministrados por la OCDE <http://www.oecd.org/subject/e_commerce> y de algunos sitios de promoción como E-Global, proyecto piloto del G8 <http://www.e-global.es/>. Como sitio orientado al suministro de este tipo de datos citaríamos el CyberAtlas del portal informativo internet.com <http://cyberatlas.internet.com/>
Si además de datos estadísticos, buscamos análisis cualitativo, tendencias y predicciones, clasificados por país o sector de actividad, es interesante acudir a las grandes consultoras internacionales como Jupiter <http://www.jup.com/home.jsp> o IDC <http://www.idc.com/>. Podemos destacar los servicios de Nua <http://www.nua.ie/surveys/> por su amplitud y la profundidad de sus análisis y el Technographics
Data de Forrester <http://www.forrester.com/Products/Techno> muy orientado al análisis de actitudes y comportamientos de los usuarios o consumidores finales en Internet.
En España, Baquia Inteligencia <http://www.baquia.com/> destaca por sus análisis cualitativos, mientras que El Termómetro de La Empresa.net <http://www.laempresa.net/termometro/> se distingue por su gran profusión de datos, tanto a nivel español como a nivel mundial.
En esta misma línea, es interesante mencionar la posibilidad de adquirir herramientas (con una extensa base de datos incorporada) para la confección a nuestra medida de estudios sobre la utilización de Internet, como por ejemplo Gideon <http://www.commerce.net/research/gideon/start.html>
Como temas estadísticos puntuales, algunos de gran ayuda para tomar decisiones en proyectos de Internet, citaríamos los siguientes:
1) Rankings de webs más visitadas clasificadas por sectores. Por ejemplo, 100hot <http://www.100hot.com/>.
2) Rankings de palabras más usadas en buscadores. Muy útiles para decidir las palabras claves de las nuevas webs en lanzamiento. Existen buscadores que presentan este tipo de datos en su propio sitio, como el Lycos 50 Daily Report <http://50.lycos.com/>. A un nivel más avanzado situaríamos la oferta de bases de datos actualizadas cotidianamente a partir de la recogida sistemática de todas las palabras y frases solicitadas por los usuarios en los principales buscadores <http://www.searchspy.com/>, <http://www.wordspot.com>, <http://www.wordtracker.com/>. Wordtracker ofrece además un servicio instantáneo de sugerencia de palabras clave a partir del contenido de su base de datos.
3) Análisis del tráfico en la Red . A través del sondeo permanente del estado de los distintos nodos de la Red, existen servicios como <http://www.matrix.net/> y <http://www.internettrafficreport.com/> capaces de darnos a conocer la última hora del tráfico existente en Internet y los tiempos de respuesta que se están obteniendo. En particular y como nota curiosa, recomendamos los «Informes Metereológicos de Internet» (Internet Weather Report) en <http://www.mids.org/weather>
4) Software utilizado en los servidores de Internet. Aprovechando la posibilidad de sondear todos los ordenadores visibles en Internet, Netcraft <http://www.netcraft.com/survey> nos ofrece interesantes estadísticas para explorar las tendencias en la adquisición y uso de sistemas operativos y software de Red.
5) Inversiones del capital-riesgo. Los proyectos Internet suelen
requerir varias y continuas rondas de financiación. Por ello, resulta
de gran interés la posibilidad ofrecida por PriceWaterhouseCoopers
<http://www.pwcmoneytree.com> de consultar acerca de las más
recientes apuestas de las sociedades de capital-riesgo en Internet y las
nuevas tecnologías.
Sección
técnica «Lengua e Informática»
(María del Carmen Ugarte)
Tema: Diccionarios en línea (I)
Las dudas sobre el significado u ortografía de las palabras nos surgen a cada momento, ¿dónde están, cuando los necesitamos, los diccionarios que de tantas dudas nos han sacado? Ahora tenemos algunos disponibles en la Internet dispuestos a recibir nuestras consultas, aunque lentos pueden sacarnos de apuros. Empezaremos por los diccionarios generales monolingües (consultas realizadas en noviembre del 2000 con la ayuda de los filólogos M. Barbero y Xabier Armendaritz del foro Apuntes):
En español contamos con:
DRAE (1992) <http://www.rae.es/NIVEL1/buscon/AUTORIDAD2. HTM>: Tras la localización de la palabra o prefijo el sistema muestra la imagen de la página del diccionario en que se encuentra. Demasiado lento.
Diccionario Anaya de la Lengua <http://www.anaya.es/diccionario/diccionar.htm>: 33.000 voces accesibles en línea mediante consulta directa, prefijos, sufijos e infijos.
Diccionario General de la Lengua Española Vox<http://www.vox.es/consultar.html>: 95.840 entradas, incorpora buen número de neologismos y tecnicismos.
En inglés:
Enciclopedia británica <http://www.britannica.com/>: Consultas en línea a los propios fondos y a los Webs' Best Sites.
Merriam-Webster's Collegiate Dictionary <http://www.m-w.com>: Permite las consultas en línea tanto al diccionario propiamente dicho como al tesauro.
En catalán:
Diccionari de la llengua catalana <http://www.grec.net/home/cel/dicc.htm>: Acceso directo a 77.000 entradas mediante ventanilla de búsqueda. Si la palabra no aparece como tal ofrece las palabras más próximas.
En gallego:
Diccionario de galego de la Compañía de Radio-Televisión de Galicia <http://www.crtvg.es/adicc/diccionario.htm>: Búsqueda de palabras individuales y acceso al diccionario en modo secuencial.
En vascuence:
Harluxet Hiztegi Entziklopedikoa <http://www.jalgi.com/hiztegia/>:
Versión resumida de esta enciclopedia que proporciona en Internet
las mismas entradas que en papel, pero un extracto de los contenidos de
cada artículo.
Sección
técnica «Lenguajes informáticos»
(Andrés Marín López,
J. Ángel Velázquez)
Tema: XML
The XML Companion de Neil Bradley, Addison-Wesley, 2000, 566p. Un libro muy actual que presenta de manera comprensible, con abundancia de ejemplos, la mayoría de los temas relacionados con XML: DTDs, NameSpaces, SAX, DOM, CSS, XSL, XSLT, Xlink, Xpointer y Xpath. Una obra cuidada, amena y didáctica, muy recomendable. A pesar de lo actual del libro, no incluye la parte de XML Schema, decisión bastante razonable debido al rápido desarrollo que está experimentando. En <http://www.bradley.co.uk> el autor explica la estructura del libro y proporciona una serie de referencias de interés.
Presenting XML de Richard Light, MacMillan, 1997, 413p.
Este libro es un ejemplo de la gran actividad en torno a XML y del paso
del tiempo en este tipo de publicaciones. Es una obra bastante amplia que
describe XML en detalle, hace un análisis de los beneficios que
reporta, presenta casos de uso del lenguaje y por último presenta
una perspectiva de futuro de XML. Algunos de los temas cubiertos en el
libro como hojas de estilos o enlaces en XML, están obsoletos por
los nuevos trabajos y recomendaciones como XSL, Xlink y Xpath. EL libro
es bastante pedagógico y la primera parte del libro es de recomendada
lectura, pues ilustra bastante los conceptos detrás de XML. Hay
una versión electrónica del libro en <http://www.mcp.com/>
Sección:
«Lingüística
computacional»
(Xavier Gómez Guinovart)
Grefenstette, Gregory (ed.), Cross-Language Information Retrieval. Kluwer Academic Publishers, Dordrecht (Países Bajos), 1998. ISBN 0-7923-8122-X. Esta obra presenta una panorámica de las diversas líneas de investigación que trabajan en el campo de la recuperación de la información plurilingüe. Los estudios recopilados en esta monografía plantean y tratan de resolver el problema que supone recuperar la información almacenada en lenguas diferentes cuando se parte de una consulta expresada en una sola lengua. Los desarrollos presentados de esta tecnología se orientan mayoritariamente a mejorar la eficacia de las aplicaciones de búsqueda de documentos en Internet, mediante la eliminación de la barrera lingüística representada por la lengua de la consulta.
Jurafsky, Daniel; y Martin, James H., Speech and Language
Processing: An Introduction to Natural Language Processing, Computational
Linguistics and Speech Recognition. Prentice Hall, New Jersey, 2000.
ISBN 0-13-095069-6. Manual universitario de lingüística computacional,
absolutamente recomendable tanto por la amplitud de sus contenidos, como
por la claridad de exposición con la que son presentados. Los 21
capítulos (con bibliografía comentada y ejercicios) que componen
este libro de 934 páginas se dividen en cuatro partes dedicadas,
respectivamente, al procesamiento léxico, sintáctico, semántico
y pragmático del lenguaje. En la primera parte se repasan los principales
conceptos sobre fonética, fonología y morfología y
los principales algoritmos utilizados en su procesamiento: autómatas
finitos, transductores, n-gramas y modelos de Markov. La segunda parte
examina los diversos modelos lingüísticos y algoritmos computacionales
relacionados con el análisis sintáctico automático,
estructurando sus contenidos en torno a cinco ejes: etiquetado morfosintáctico,
gramáticas independientes del contexto, gramáticas de unificación,
análisis probabilístico y jerarquía de Chomsky. La
tercera parte revisa las diferentes aproximaciones a la representación,
análisis y procesamiento del significado, y su aplicación
en los campos de la recuperación y extracción de la información,
de la comprensión del lenguaje natural y de la traducción
automática. Por último, la cuarta parte del libro abarca
los contenidos relacionados con el procesamiento del discurso y del diálogo,
y culmina con dos amplios apartados dedicados de manera monográfica
a la generación del lenguaje natural y a la traducción automática.
Sección técnica
«Seguridad»
(Javier Areitio Bertolín)
Casey, E. Digital Evidence and Computer Crime with CDROM:
Forensic Science, Computers and the Internet. Academic Press. 2000.
Govanus, G. and King, R. MCSE: Windows 2000 Network Security
Design Study Guide. Sybex. 2000.
Gregory, P.H. Solaris Security. Prentice-Hall. Upper
Saddle River. New Jersey. 1999.
Larson, E. and Stephens, B. Administrating Web Servers,
Security and Maintenence: Interactive Workbook. Prentice-Hall. Upper
Saddle River. New Jersey. 1999.
Loshin, P. Big Book of IPsec RFC's. Internet Security Architecture.
Morgan Kaufmann Publishers. 1999.
McClure, S. Hacking Exposed: Network Security Secrets and
Solutions. McGraw-Hill Books Company. NY. 1999.
Nichols, R.K., Ryan, D.J., Ryan, J.J. and Baugh, W.E. Defending
Your Digital Assets: Against Hackers, Crackers, Spies and Thieves.
McGraw-Hill Books Company. NY. 1999.
Ogletree, T. Practical Firewalls. QUE Education &
Training. 2000.
Perelman, M. Class Warfare in the Information Age. St
Martin's Press. 1999.
Schneier, B. Secrets and Lies: Digital Security in a Networked
World. John Wiley & Sons, Ltd. Chichester. UK. 2000.
Sechrouchni, A. and Sherif, M.H. Protocols for Secure Electronic
Commerce. CRC Press. 2000.
Schultz, E.E. Windows NT/2000 Network Security. New Riders
Publishing. 2000.
Schwartan, W. Cybershock: Surviving Hackers, Phreakers, Identity
Thieves, Internet Terrorists and Weapons of Mass Disruption. Avalon.
New York. 2000.
Rosen, J. The Unwanted Gaze: The Destruction of Privacy in
America. Random House Incorporated. 2000.
Thomas, S.A. SSL and TLS Essentials: Securing the Web
with
CDROM. John Wiley & Sons, Ltd. Chichester. UK. 2000.
Sección técnica
«Software Libre»
(Jesús M. González Barahona,
Pedro de la Heras Quirós)
theKompany
La gente de KDE también tiene ahora una empresa nueva,
creada expresamente para acercarlo al mundo comercial. Se llama theKompany,
y ya ha ofrecido contratar a desarrolladores de KDE. ¿Será
este el HelixCode de KDE? <http://barrapunto.com/softlibre/100/09/28/1546202.shtml>
Qt distribuido bajo la GPL
La compañía noruega Troll Tech, desarrolladora de la
biblioteca de programación de aplicaciones gráficas e interfaces
de usuario Qt, ha decidido distribuirla bajo licencia GPL. Qt se
utiliza en el entorno de escritorio KDE. En origen Qt era software propietario,
aunque luego se distribuyó con la licencia tipo Open Source QPL.
Sin embargo el software desarrollado con esta licencia no se puede combinar
con software GPL. Al liberarse ahora con licencia GPL, Qt podrá
utilizarse en combinación con cualquier otro código GPL,
lo que permitirá por ejemplo que Qt pueda utilizarse en el entorno
rival de KDE, GNOME, o que se mezcle código de ambos escritorios
en el futuro. <http://www.trolltech.com/company/announce/gpl.html>
KDE 2.0
Salió el tan esperado KDE 2.0 (alias Kopernicus). Incluye versiones
nueva de los «clásicos» (como Konqueror o KOffice),
nuevos módulos (como Kparts, que es una nueva arquitectura de componentes)
y muchas, muchas mejoras. En total, más de 100 aplicaciones, disponibles
en español, entre otros idiomas. Y por supuesto, hay paquetes precompilados
para las distribuciones de GNU/Linux más habituales. <http://www.kde.org>,
<http://barrapunto.com/softlibre/100/10/24/028256.shtml>
OpenOffice liberado bajo GPL
OpenOffice fue liberado bajo la licencia GPL, como había sido
anunciado por Sun. OpenOffice es la versión libre de StarOffice,
y proporciona un entorno ofimático completo con procesador de textos,
hoja de cálculo, navegador, editor de presentaciones, etc. Funciona,
entre otros, sobre GNU/Linux y Windows. Y sabe leer ficheros producidos
con otros juegos de aplicaciones ofimáticas (por ejemplo, carga
bastante bien ficheros de Microsoft.Office). Su integración dentro
del modelo de componentes de Gnome ya ha comenzado, así que pronto
tendremos OpenOffice gnomizado. ¿Marca esta liberación un
cambio en la estrategia de Sun con respecto al software libre? Sólo
el tiempo lo dirá. <http://www.openoffice.org>, <http://barrapunto.com/softlibre/100/10/13/2244253.shtml>
La Espiral
El proyecto La Espiral se va consolidando. La Espiral nació
hacia el final del verano pasado para promover el uso de Debian en el ámbito
de habla hispana, mediante la creación de documentación y
CDs con paquetes actualizados para Debian, entre otras acciones. Ya ha
producido su primer CD, y varios artículos. Tanto el CD como varios
de los artículos están disponibles en su sitio web, además
de ser distribuidos por varias revistas <http://www.laespiral.org>
Microsoft y el acceso al sistema de ficheros de NT en Linux
Ha habido mucha polémica sobre el asunto del desarrollador acusado
por Microsoft de haber utilizado cierta información para implementar
el NTFS de Linux (sistema de ficheros que permite acceso a discos con formato
WindowsNT). Al parecer, el desarrollador había firmado un acuerdo
de confidencialidad con Microsoft sobre temas relacionados con WindowsNT.
Ese mismo desarrollador participa en la realización de NTFS en Linux,
y se le acusaba de utilizar la información obtenida bajo el acuerdo
de confidencialidad para ciertos detalles de esa realización. Finalmente,
el asunto se ha arreglado, y el desarrollo de NTFS en Linux sigue adelante.
<http://barrapunto.com/articles/100/09/27/1251256.shtml>, <http://barrapunto.com/softlibre/100/10/02/1637205.shtml>
FreeDevelopers.net
El proyecto FreeDevelopers.net, apoyado por la Free Software Foundation
(FSF) es una entidad democrática para el desarrollo de software
libre. El proyecto es de sus miembros y pretende pagarles por su trabajo
en software libre. Todo el trabajo que desarrollen será dis-tribuido
bajo la licencia GNU GPL. <http://www.freedevelopers.net>, <http://www.fsf.org>
AFS distribuido como software libre
El código fuente de AFS (Andrew File System),
un sistema de ficheros distribuido, originalmente concebido y creado por
Satyanarayanan (Carnegie Mellon University, EEUU) ha sido liberado por
IBM, que tiene sus derechos. Esta acción parece confirmar la estrategia
de IBM hacia el uso de software libre dentro de su modelo de negocio. AFS
permite el acceso, de forma transparente para los usuarios, a ficheros
almacenados en cualquier máquina que ofrezca el servicio, y proporciona
además características avanzadas, como replicación
automática. <http://slashdot.org/articles/00/11/01/0313248.shtml>
Batallitas
Una curiosidad divertida. Imagina que la competencia entre los distintos
productos y empresas informáticas se pudieran pintar como el mapa
de una guerra. Imagina los distintos frentes, las alianzas, los avances,
las retiradas... Esto es lo que imaginó Li-Cheng (Andy) Tai. En
sus esquemas, puedes ver cómo percibe él la situación
actual, y cómo ha ido evolucionando en los últimos años,
como si de un campo de batalla se tratase. <http://www.atai.org/softwarewar.gif>,
<http://barrapunto.com/softlibre/100/10/23/1859226.shtml>
Consulta de la Comisión Europea sobre las patentes de software
En Europa no tenemos patentes de software, pero parece que estamos
cerca de tenerlas, lo que va a plantear serios problemas al software libre
(y a muchos productores de software propietario). A finales de noviembre
hay una reunión donde se pretende modificar el Tratado Europeo de
Patentes, entre otras cosas eliminando el artículo que declara los
programas de ordenador como no sujetos a patentes. Y la Comisión
Europea ha abierto un proceso abierto de consultas sobre el tema. Si te
interesa, puedes participar con tu opinión. En ese caso, te aconsejo
que lo hagas a través de las páginas de EuroLinux, donde
se ha abierto un foro para realizar abiertamente esta consulta. En ellas
también puedes firmar contra el establecimiento de patentes de software
en Europa. <http://petition.eurolinux.es>, <http://petition.eurolinux.es/consultation>,
<http://barrapunto.com/articles/100/10/31/1541238.shtml>
Sección
técnica «Tecnología de Objetos»
(Esperanza Marcos, Gustavo Rossi)
Scott W. Ambler. Process Patterns. Building Large-Scale Systems Usign Object Technology. Cambridge Iniversity Press, 1998. El proceso de desarrollo software orientado a objetos (OOSP) que Ambler presenta en este libro consiste en un conjunto de patrones de proceso. Estos patrones de proceso describen técnicas, acciones o tareas que deben ser llevadas a cabo en el desarrollo de software orientado a objetos. El libro tiene una perspectiva totalmente práctica basada en patrones de proceso que han sido utilizados en aplicaciones reales.
Scott W. Ambler. More Process Patterns. Delivering Large-Scale
Systems Usign Object Technology. Cambridge Iniversity Press, 1999.
Este libro, que es una continuación de Process Patterns, cubre las
últimas etapas del proceso software (entrega, mantenimiento y soporte)
como una continuación de OOSP. Al igual que Process Patterns, se
trata de un libro con un enfoque práctico escrito por una persona
con experiencia en desarrollo software.