Scielo RSS <![CDATA[CLEI Electronic Journal]]> http://www.scielo.edu.uy/rss.php?pid=0717-500020110001&lang=pt vol. 14 num. 1 lang. pt <![CDATA[SciELO Logo]]> http://www.scielo.edu.uy/img/en/fbpelogp.gif http://www.scielo.edu.uy <![CDATA[Preface to the CLEI 2010 Special Issue]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002011000100001&lng=pt&nrm=iso&tlng=pt <![CDATA[A MDA Approach for Navigational and User Perspectives]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002011000100002&lng=pt&nrm=iso&tlng=pt The study presented in this paper focuses on a navigational and user perspectives analysis of Web applications, highlighting some of their critical points for modeling. To consider these critical points, we propose a notational definition focused on a general metamodel, consisting of three specific metamodels: the Navigational Tree, the Node, and Roles. The metamodels have been implemented with a specific MDA (Model Driven Architecture) tool called AndroMDA, to generate applications for PHP language. Both, the general metamodel and its implementation have been analyzed by means of a proof of concept. Finally, some interesting results as well as the contribution of the proposed metamodel in comparison with other methodological proposals are discussed.<hr/>El presente estudio se enfoca en un análisis de las perspectivas navegacional y de usuarios en Aplicaciones Web, resaltando algunos puntos críticos para el modelado. A partir de esto, se realiza una propuesta notacional y su definición centrada en un Metamodelo general que consta de tres Metamodelos específicos: el Árbol de Navegación, el de Nodos, y el de Roles. Los Metamodelos han sido implementados utilizando una herramienta específica de MDA (AndroMDA) mediante el desarrollo de un cartucho que considera como plataforma destino aplicaciones en PHP. Tanto el Metamodelo general, como el cartucho para AndroMDA han sido analizados por medio de una Prueba de Concepto, culminando con una serie de resultados interesantes en cuanto a la aplicación del enfoque MDA, así como también las contribuciones del metamodelo propuesto en relación a otras propuestas metodológicas existentes. <![CDATA[A Semantic Framework for Evaluating Topical Search Methods]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002011000100003&lng=pt&nrm=iso&tlng=pt The absence of reliable and efficient techniques to evaluate information retrieval systems has become a bottleneck in the development of novel retrieval methods. In traditional approaches users or hired evaluators provide manual assessments of relevance. However these approaches are neither efficient nor reliable since they do not scale with the complexity and heterogeneity of available digital information. Automatic approaches, on the other hand, could be efficient but disregard semantic data, which is usually important to assess the actual performance of the evaluated methods. This article proposes to use topic ontologies and semantic similarity data derived from these ontologies to implement an automatic semantic evaluation framework for information retrieval systems. The use of semantic similarity data allows to capture the notion of partial relevance, generalizing traditional evaluation metrics, and giving rise to novel performance measures such as semantic precision and semantic harmonic mean. The validity of the approach is supported by user studies and the application of the proposed framework is illustrated with the evaluation of topical retrieval systems. The evaluated systems include a baseline, a supervised version of the Bo1 query refinement method and two multi-objective evolutionary algorithms for context-based retrieval. Finally, we discuss the advantages of applying evaluation metrics that account for semantic similarity data and partial relevance over existing metrics based on the notion of total relevance.<hr/>La falta de técnicas confiables y eficientes para la evaluación de sistemas de recuperación de información ha generado un cuello de botella en el desarrollo de métodos de recuperación novedosos. En los enfoques tradicionales las evaluaciones de relevancia son proporcionadas de forma manual por usuarios o evaluadores contratados. Sin embargo, dado que estos métodos no escalan con la complejidad y heterogeneidad de la información digital disponible, son ineficientes o poco confiables. Por otro lado, las técnicas automáticas podrían ser eficientes pero descartan información semántica que normalmente es importante para la evaluación del rendimiento real de los sistemas. Este artículo propone implementar una plataforma automática de evaluación semántica para sistemas de recuperación de información a través de la utilización de ontologías temáticas y de información de similitud semántica derivada de esas ontologías. El uso de esta información permite aprovechar la noción de relevancia parcial, generalizando las métricas de evaluación tradicionales y dando lugar a medidas de rendimiento novedosas, como la precisión semántica y la media armónica semántica. La utilidad del método propuesto está validada por estudios de usuario y se ilustra su aplicación mediante la evaluación de sistemas de recuperación temáticos. Los sistemas evaluados incluyen un método base, una versión supervisada del método de refinamiento de consultas Bo1 y dos algoritmos evolutivos multiobjetivo para la recuperación de información basados en contexto. Por último, se discuten las ventajas de la utilización de métricas de evaluación que consideran la información de similitud semántica y relevancia parcial sobre las técnicas existentes basadas en la noción de relevancia total. <![CDATA[Extensions of UML to Model Aspect-oriented Software Systems]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002011000100004&lng=pt&nrm=iso&tlng=pt Abstract Aspect-Oriented Programming (AOP) has arisen as a new technology to support a better SoC (Separation of Concerns), intending to contribute to the development of reusable, maintainable, and evolvable software systems. Aspects have been also explored in the early life cycle phases, aiming at contributing to a more adequate development of aspect-oriented software systems. In this perspective, in order to better represent these systems, a diversity of extensions of the UML (Unified Modeling Language) has been proposed; however, there is a lack of a complete panorama that identify all these extensions. This paper presents an overview about which are possibly all extensions of the UML to represent aspect-oriented software systems. For this, we have used a technique proposed by Evidence-Based Software Engineering (EBSE): the Systematic Mapping. As achieved results, we can observe a diversity of work; however, there is not a consensus about which are the more adequate or more used extensions. Based on this overview, interesting and important perspectives for future research can also be found.<hr/>A Programação Orientada a Aspecto (POA) surgiu recentemente como uma nova tecnologia que permite uma melhor separação de interesses (do inglês, Separation of Concerns, SoC) e tendo como objetivo contribuir para o desenvolvimento de sistemas de software que sejam mais fáceis de manter, evoluir e reutilizar. Aspectos também têm sido explorados nas fases iniciais do ciclo de vida do software, com o propósito de contribuir para o desenvolvimento mais adequado de sistemas de software orientados a aspecto. Nesse sentido, para melhor representar esses sistemas, uma diversidade de extensões para a UML (Unified Modeling Language) têm sido propostas; entretanto, não há um panorama completo que identifique todas essas extensões. Assim, este trabalho apresenta uma visão geral sobre quais são possivelmente todas as extensões da UML propostas para a representação de sistemas de software orientados a aspecto. Para isso, foi utilizada uma técnica proposta pela Engenharia de Software Baseada em Evidências (ESBE): o Mapeamento Sistemático de Estudos. Como resultado, é possível observar uma diversidade de trabalhos; entretanto, não há ainda um consenso sobre quais extensões são mais adequadas ou mais utilizadas. Baseado neste trabalho, interessantes e importantes linhas de pesquisa podem ser também identificadas. <![CDATA[Multi-label Problem Transformation Methods: a Case Study]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002011000100005&lng=pt&nrm=iso&tlng=pt Traditional classification algorithms consider learning problems that contain only one label, i.e., each example is associated with one single nominal target variable characterizing its property. However, the number of practical applications involving data with multiple target variables has increased. To learn from this sort of data, multi-label classification algorithms should be used. The task of learning from multi-label data can be addressed by methods that transform the multi-label classification problem into several single-label classification problems. In this work, two well known methods based on this approach are used, as well as a third method we propose to overcome some deficiencies of one of them, in a case study using textual data related to medical findings, which were structured using the bag-of-words approach. The experimental study using these three methods shows an improvement on the results obtained by our proposed multi-label classification method.<hr/>Algoritmos de classificação usualmente consideram problemas de aprendizado que contêm apenas um único rótulo, i.e., cada exemplo é associado a um único valor para o atributo meta. No entanto, um número crescente de aplicações envolve dados para os quais múltiplos atributos metas estão associados. Para esses casos, são utilizados algoritmos de classificação chamados multirrótulo. A tarefa de aprendizado com esses dados pode ser resolvida por métodos que transformam o problema em diversos problemas de classificação monorrótulo. Neste trabalho, dois métodos tradicionais baseados nessa abordagem são utilizados, bem como um terceiro método por nós proposto para superar algumas deficiências desses métodos. Também é realizado um estudo de caso utilizando dados textuais relacionados a laudos médicos, os quais foram estruturados utilizando a abordagem bag-of-words. O estudo experimental utilizando esses três métodos mostra uma melhora na qualidade de predição obtida pela utilização do método de classificação multirrótulo proposto neste trabalho. <![CDATA[Coordinated Tuning of a Group of Static Var Compensators Using Multi-Objective Genetic Algorithm]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002011000100006&lng=pt&nrm=iso&tlng=pt The optimal coordinated tuning of a group of Static Var Compensators (SVC), in steady state, allows the Power Electric Systems (PES) to operate close to their overload limits, maintaining the voltage stability in several operating conditions. The mentioned tuning problem was considered as a Multi-objective Optimization Problem (MOP) with three objectives to optimize: the financial investment for acquiring the set of compensators, the maximum voltage deviation and total active power loss. The Genetic Algorithm (GA), which belongs to the group of Evolutionary Algorithms, was utilized and adapted for MOP, obtaining a Multi-Objective GA (MOGA). The parameters to be adjusted in each compensator are: the reference voltage and the minimum and maximum reactive power injected to the system. In this work, the number of compensators and their locations were calculated using the Q-V sensitivity curve, from the Load Flow algorithm, based on Newton-Raphson method. The proposed coordinated tuning method will be validated considering an example of PES, where was located and tuned a specific set of compensators. Time simulations were made for dynamic performing the steady state coordinated tuning.<hr/>El óptimo ajuste coordinado de un grupo de Compensadores Estáticos de Reactivos, en régimen permanente, permite a los Sistemas Eléctricos de Potencia (SEP) operar bien cercanos de sus límites operativos, manteniendo estable el nivel de voltaje en diversas condiciones de operación. El referido problema de ajuste coordinado fue considerado como un Problema de optimización Multi-Objetivo (PMO) con tres funciones objetivo a ser optimizados: la inversión financiera, para la adquisición del grupo de compensadores, el máximo desvío de tensión y la pérdida total de potencia activa. El Algoritmo Genético (AG), el cual pertenece a la familia de los Algoritmos Evolucionarios, fue utilizado y adaptado para PMO, obteniendo un AG Multi-Objetivo (AGMO). Los parámetros que serán ajustados en cada uno de los compensadores son: el voltaje de referencia, y el valor mínimo y máximo de la potencia reactiva inyectada al sistema. En el presente trabajo, el número de compensadores y sus localizaciones fueron determinadas usando la curva de sensibilidad Q-V, proveniente del algoritmo de Flujo de Potencia basado en el método de Newton-Raphson. El método de ajuste coordinado propuesto será validado considerando un ejemplo de SEP, en donde fueron localizados y ajustados específicos compensadores. Simulación en el tiempo fue realizada para evaluar el desempeño dinámico del ajuste coordinado en régimen permanente. <![CDATA[New Resolution Strategies for Multi-scale Reaction Waves: Optimal Time Operator Splitting and Space Adaptive Multiresolution]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002011000100007&lng=pt&nrm=iso&tlng=pt We tackle the numerical simulation of reaction-diffusion equations modeling multi-scale reaction waves. This type of problems induces peculiar difficulties and potentially large stiffness which stem from the broad spectrum of temporal scales in the nonlinear chemical source term as well as from the presence of large spatial gradients in the reaction fronts, spatially very localized. In this paper, we introduce a new resolution strategy based on time operator splitting and space adaptive multiresolution in the context of very localized and stiff reaction fronts. Based on recent theoretical studies of numerical analysis, such a strategy leads to a splitting time step which is not restricted neither by the fastest scales in the source term nor by restrictive diffusive step stability limits, but only by the physics of the phenomenon. We thus aim at solving accurately complete models including all time and space scales of the phenomenon, considering large simulation domains with conventional computing resources. The efficiency is evaluated through the numerical simulation of configurations which were so far out of reach of standard methods in the field of nonlinear chemical dynamics for 2D spiral waves and 3D scroll waves as an illustration. Future extensions of the proposed strategy are finally discussed.<hr/>Estudiamos la simulación numérica de ecuaciones de reacción-difusión que modelan ondas de reacción multi-escala. Este tipo de problemas induce dificultades peculiares y problemas de condicionamiento potencialmente grandes que surgen del amplio espectro de escalas temporales en el término no-lineal de la fuente química y de la presencia de grandes gradientes espaciales en el frente de reacción, muy localizados espacialmente. En este trabajo, introducimos una nueva estrategia de resolución basada en el particionamiento del operador temporal y en la multiresolución adaptiva espacial. Sobre la base de estudios teóricos recientes en el campo de análisis numérico, esta estrategia conduce a un paso de tiempo que no está restringido por las escalas más veloces en el término fuente ni por límites de estabilidad en la etapa de difusión, sino sólo por la propia física del fenómeno en estudio. De esta forma pretendemos resolver de forma precisa modelos completos que incluyen todas las escalas espaciales y temporales del fenómeno, teniendo en cuenta dominios de simulación amplios utilizando recursos computacionales convencionales. La eficiencia se evalúa a través de la simulación numérica de configuraciones que hasta el momento estaban fuera del alcance de los métodos estándar en el campo de la dinámica química no lineal para ondas espiral 2D y ondas scroll 3D. Extensiones futuras de la estrategia se discuten al final. <![CDATA[Modular Visualization of Distributed Systems]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002011000100008&lng=pt&nrm=iso&tlng=pt Abstract. Effective visualization is critical to developing, analyzing, and optimizing distributed systems. We have developed OverView, a tool for online/offline distributed systems visualization, that enables modular layout mechanisms, so that different distributed system high-level programming abstractions such as actors or processes can be visualized in intuitive ways. OverView uses by default a hierarchical concentric layout that distinguishes entities from containers allowing migration patterns triggered by adaptive middleware to be visualized. In this paper, we develop a force-directed layout strategy that connects entities according to their communication patterns in order to directly exhibit the application communication topologies. In force-directed visualization, entities’ locations are encoded with different colors to illustrate load balancing. We compare these layouts using quantitative metrics including communication to entity ratio, applied on common distributed application topologies. We conclude that modular visualization is necessary to effectively visualize distributed systems since no one layout is best for all applications.<hr/>La visualización efectiva es crítica para desarrollar, analizar y optimizar sistemas distribuidos. Hemos desarrollado OverView, una herramienta para visualización en línea y fuera de línea de sistemas distribuidos, que permite el uso de mecanismos modulares de presentación, para que diferentes abstracciones de alto nivel para sistemas distribuidos como actores o procesos puedan ser visualizadas de forma intuitiva. OverView usa por defecto una presentación concéntrica y jerárquica que distingue entidades de contenedores, permitiendo que los patrones de migración activados por middleware adaptativo sean visualizados. En este artículo, establecemos una estrategia de presentación dirigida por fuerza, que conecta entidades de acuerdo a sus patrones de comunicación para exhibir directamente las topologías de comunicación de la aplicación. En la visualización dirigida por fuerza, la localización de las entidades están codificadas por diferentes colores para ilustrar el balanceo de cargas. Comparamos estas presentaciones usando métricas cuantitativas incluyendo la razón de comunicaciones a entidades, aplicada a topologías comunes en sistemas distribuidos. Concluimos que la visualización modular es necesaria para visualizar efectivamente sistemas distribuidos dado que ninguna presentación es la mejor para todas las aplicaciones. <![CDATA[Practical Evaluation of a Secure Key-Distribution and Storage Scheme for Wireless Sensor Networks Using TinyOS]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002011000100009&lng=pt&nrm=iso&tlng=pt Abstract TinyOS is a major platform broadly used to carry out experiments related to Wireless Sensor Networks (WSNs). A number of researchers claim that cryptographic mechanisms demand plenty of resources from sensors. In this context, an important issue is to develop lightweight encryption mechanisms capable of running in resource-constrained sensors. The main contribution of this work is to carry out an experimental evaluation of a secure key distribution and storage scheme in a WSN using simulation and practical experiments. Through simulation, we verify that this scheme introduces very low processing overhead, in the order of nanoseconds, when compared to existing approaches. Additionally, practical measurements indicate that the scheme can be deployed by off-the-shelf sensor platforms, such as MicaZ and TelosB. The performance metrics considered are the processing time of encryption and decryption functions, the application memory requirements and the power consumption. We have also evaluated several functionalities of the scheme on a real testbed. In summary, this work demonstrates the practical feasibility of implementing such scheme in real sensor networks.<hr/>O sistema TinyOS é uma importante plataforma amplamente utilizada para realizar experimentos relacionados a Redes de Sensores Sem Fio (RSSFs). Alguns pesquisadores afirmam que mecanismos de criptografia exigem um consumo excessivo de recursos de sensores. Neste contexto, torna-se desafiador desenvolver mecanismos leves de criptografia a fim de que sejam executados em dispositivos com recursos limitados, como sensores. A principal contribuição deste trabalho consiste em realizar uma avaliação experimental de um esquema seguro de distribuição e armazenamento de chaves em uma RSSF, usando simulação e experimentos práticos. Através de simulação, verifica-se que esse esquema provoca uma sobrecarga de processamento muito baixa, da ordem de nanossegundos, quando comparado a abordagens existentes. Além disso, medidas práticas indicam que o esquema pode ser executado em plataformas de sensores comercialmente disponíveis, tais como MicaZ e TelosB. As métricas de desempenho consideradas são o tempo de processamento das funções de cifração e decifração, os requisitos de memória da aplicação e o consumo de energia. Adicionalmente, foram avaliadas várias funcionalidades do esquema através de uma plataforma de testes real. Desse modo, este trabalho demonstra a viabilidade prática de implementar tal esquema em redes de sensores reais.