Scielo RSS <![CDATA[CLEI Electronic Journal]]> http://www.scielo.edu.uy/rss.php?pid=0717-500020160001&lang=en vol. 19 num. 1 lang. en <![CDATA[SciELO Logo]]> http://www.scielo.edu.uy/img/en/fbpelogp.gif http://www.scielo.edu.uy <![CDATA[Impact of Thresholds and Load Patterns when Executing HPC Applications with Cloud Elasticity]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002016000100001&lng=en&nrm=iso&tlng=en Elasticity is one of the most known capabilities related to cloud computing, being largely deployed reactively using thresholds. In this way, maximum and minimum limits are used to drive resource allocation and deallocation actions, leading to the following problem statements: How can cloud users set the threshold values to enable elasticity in their cloud applications? And what is the impact of the application’s load pattern in the elasticity? This article tries to answer these questions for iterative high performance computing applications, showing the impact of both thresholds and load patterns on application performance and resource consumption. To accomplish this, we developed a reactive and PaaS-based elasticity model called AutoElastic and employed it over a private cloud to execute a numerical integration application. Here, we are presenting an analysis of best practices and possible optimizations regarding the elasticity and HPC pair. Considering the results, we observed that the maximum threshold influences the application time more than the minimum one. We concluded that threshold values close to 100% of CPU load are directly related to a weaker reactivity, postponing resource reconfiguration when its activation in advance could be pertinent for reducing the application runtime.<hr/>Elasticidade é uma das capacidades mais conhecidas da computação em nuvem, sendo amplamente implantada de forma reativa usando thresholds. Desta forma, os limites máximos e mínimos são usados ??para conduzir ações de alocação de recursos e desalocação eles, levando às seguintes sentenças-problema: Como podem os usuários definir os valores de limite para permitir a elasticidade em suas aplicações em nuvem? E qual é o impacto do padrão de carga do aplicativo na elasticidade? Este artigo tenta responder a estas perguntas para aplicações iterativas de computação de alto desempenho, mostrando o impacto de ambos os lthresholds e padrões de carga no desempenho do aplicativo e consumo de recursos. Para isso, foi desenvolvido um modelo de elasticidade baseado em PaaS chamado autoplastic, empregando-o sobre uma nuvem privada para executar um aplicativo de integração numérica. Apresenta-se uma análise das melhores práticas e possíveis otimizações no que diz respeito ao par elasticidade e HPC. Considerando os resultados, observou-se que o limite máximo influencia o tempo de aplicação mais do que o mínimo. Concluiu-se que os limiares próximos a 100% da carga de CPU estão diretamente relacionados com a reactividade mais fraca, adiando reconfiguração de recursos quando sua ativação com antecedência pode ser pertinente para reduzir o tempo de execução do aplicativo. <![CDATA[Balancing Energy and Performance in Dense Linear System Solvers for Hybrid ARM+GPU platforms]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002016000100002&lng=en&nrm=iso&tlng=en The high performance computing community has traditionally focused uniquely on the reduction of execution time, though in the last years, the optimization of energy consumption has become a main issue. A reduction of energy usage without a degradation of performance requires the adoption of energy-efficient hardware platforms accompanied by the development of energy-aware algorithms and computational kernels. The solution of linear systems is a key operation for many scientific and engineering problems. Its relevance has motivated an important amount of work, and consequently, it is possible to find high performance solvers for a wide variety of hardware platforms. In this work, we aim to develop a high performance and energy-efficient linear system solver. In particular, we develop two solvers for a low-power CPU-GPU platform, the NVIDIA Jetson TK1. These solvers implement the Gauss-Huard algorithm yielding an efficient usage of the target hardware as well as an efficient memory access. The experimental evaluation shows that the novel proposal reports important savings in both time and energy-consumption when compared with the state-of-the-art solvers of the platform.<hr/>La comunidad de computación de alto desempeño (HPC del inglés) tradicionalmente se ha focalizado únicamente en la reducción de los tiempos de ejecución, sin embargo, en los últimos años, la optimización del consumo energético se ha convertido en un tema importante. La reducción en el uso de energía sin una pérdida de desempeño requiere la adopción de hardware eficiente desde el punto de vista energético, acompañado también del desarrollo de algoritmos que consideren este aspecto. La resolución de sistemas lineales es una operación clave en diversos problemas relacionados con la computación científica. Su relevancia ha motivado un volumen importante de trabajo y, en consecuencia, es posible encontrar resolutores que incluyen técnicas de HPC para una amplia gama de plataformas de hardware. En este trabajo, se avanza en el desarrollo de variantes para la resolución de sistemas lineales que incluyen técnicas de computación de alto desempeño y contemplan aspectos energéticos. En particular, se desarrollan dos resolutores para una plataforma híbrida CPU+GPU de bajo consumo, la Jetson TK1 de NVIDIA. Estos resolutores implementan el método de Gauss-Huard, buscando hacer un uso eficiente de la plataforma de hardware objetivo, considerando las características de su jerarquía de memoria. La evaluación experimental muestra que la novel propuesta reporta importantes reducciones tanto en el tiempo de ejecución como en el consumo energético cuando se compara con el estado del arte en resolutores para dicha plataforma. <![CDATA[Assessing a Methodological Proposal for the Design, Creation and Evaluation of Learning Objects Oriented to Educators with Diverse Educational and Technological Competencies]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002016000100003&lng=en&nrm=iso&tlng=en This paper describes a methodological proposal for the design, creation and evaluation of Learning Objects (LOs). This study arises from the compilation and analysis of several LO design methodologies currently used in Ibero-America. This proposal, which has been named DICREVOA, defines five different phases: analysis, design (instructional and multimedia), implementation (LO and metadata), evaluation (from the perspective of both the producer and the consumer of the LO), and publishing. The methodology focuses not only on the teaching inexperienced, but also on those having a basic understanding of the technological and educational aspects related to LO design; therefore, the study emphasizes LO design activities centered around the Kolb cycle and the use of the ExeLearning tool in order to implement the LO core. Additionally, DICREVOA was used in a case study, which demonstrates how it provides a feasible mechanism for LO design and implementation within different contexts. Finally, DICREVOA, the case study to which it was applied, and the results obtained are presented<hr/>El presente artículo describe una propuesta metodológica para el diseño, creación y evaluación de Objetos de Aprendizaje (OAs). Este estudio surge de la recopilación y análisis de varias metodologías de diseño de OAs, actualmente utilizadas en Iberoamérica. Esta propuesta, que se denomina DICREVOA, define cinco fases diferentes: análisis, diseño (instruccional y multimedial), implementación (OAs y metadatos), evaluación (desde la perspectiva tanto del productor como del consumidor de los OAs), y la publicación. La metodología se centra no sólo en los que carecen de conocimiento en el tema, sino también en aquellos que tienen un conocimiento básico de los aspectos tecnológicos y educativos, relacionados con el diseño de OAs; por lo tanto, este estudio hace hincapié en el diseño de OAs centrados en el ciclo de Kolb y en el uso de la herramienta ExeLearning, con el fin de implementar el núcleo del OA. Adicionalmente, DICREVOA fue implementado en un estudio de caso, que demostró como esta metodología proporciona un mecanismo viable para el diseño e implementación de OAs, en contextos diferentes. Finalmente, se presenta DICREVOA, el estudio de caso, y los resultados obtenidos durante la investigación <![CDATA[PICTOAPRENDE: Design and evaluation of a tool that contributes to the personal autonomy of children and youth diagnosed with autism spectrum disorder in Ecuador]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002016000100004&lng=en&nrm=iso&tlng=en This paper presents the development and evaluation of PICTOAPRENDE, which is an interactive software designed to improve oral communication. Additionally, it contributes to the development of children and youth who are diagnosed with autism spectrum disorder (ASD) in Ecuador. To fulfill this purpose initially analyzes the intervention area where the general characteristics of people with ASD and their status in Ecuador is described. Statistical techniques used for this evaluation constitutes the basis of this study. A section that presents the development of research-based cognitive and social parameters of the area of intervention is also shown. Finally, the algorithms to obtain the measurements and experimental results along with the analysis of them are presented.<hr/>En este trabajo se presenta el desarrollo y evaluación de Pictoaprende un software interactivo diseñado para mejorar la comunicación oral y contribuir al desarrollo personal de niños y jóvenes con diagnóstico de trastorno del espectro autista (TEA) en Ecuador. Para cumplir con este propósito inicialmente se analiza el área de intervención que describe las características generales de las personas con TEA y su situación en el Ecuador. Las técnicas estadísticas utilizadas para esta evaluación constituye la base de este estudio. También se muestra una sección que presenta el desarrollo de parámetros cognitivos y sociales basadas en la investigación de la zona de intervención. Finalmente, se presentan los algoritmos para obtener las medidas y los resultados experimentales, junto con el análisis de los mismos. <![CDATA[Philosophy of Computer Science and its Effect on Education: Towards the Construction of an Interdisciplinary Group]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002016000100005&lng=en&nrm=iso&tlng=en This article presents an interdisciplinary experience that brings together two areas of computer science; didactics and philosophy. As such, the article introduces a relatively unexplored area of research, not only in Uruguay but in the whole Latin American region. The reflection on the ontological status of computer science, its epistemic and educational problems, as well as their relationship with technology, allows us to elaborate a critical analysis of the discipline and a social perception of it as a basic science.<hr/>En este artículo se presenta una experiencia interdisciplinaria que reúne dos áreas de la informática, la didáctica y la filosofía. Como tal, el artículo presenta un área relativamente inexplorada de la investigación, no sólo en Uruguay sino en toda la región de América Latina. La reflexión sobre el estatus ontológico de la informática, sus problemas epistémicos y educativos, así como su relación con la tecnología, nos permite elaborar un análisis crítico de la disciplina y una percepción social de la misma como ciencia básica. <![CDATA[Vulcanus 2.0: A Recommender System for Accessibility]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002016000100006&lng=en&nrm=iso&tlng=en Even though the use of recommender systems is already widely spread in several application areas, there is still a lack of studies for accessibility research field. One of these attempts to use recommender system benefits for accessibility needs is Vulcanus. The Vulcanus recommender system uses similarity analysis to compare user’s trails. In this way, it is possible to take advantage of the user’s past behavior and distribute personalized content and services. The Vulcanus combined concepts from ubiquitous computing, such as user profiles, context awareness, trails management, and similarity analysis. It uses two different approaches for trails similarity analysis: resources patterns and categories patterns. In this work we performed an asymptotic analysis, identifying Vulcanus’ algorithm complexity. Furthermore we also propose improvements achieved by dynamic programming technique, so the ordinary case is improved by using a bottom-up approach. With that approach, many unnecessary comparisons can be skipped and now Vulcanus 2.0 is presented with improvements in its average case scenario.<hr/>Apesar do uso de sistemas de recomendação já ser amplamente difundido em inúmeras áreas de aplicação, na área de pesquisa sobre acessibilidade ainda há falta de estudos. Uma das tentativas de utilizar os benefícios dos sistemas de recomendação para necessidades de acessibilidade é o Vulcanus. O sistema de recomendação Vulcanus usa análise de similaridade para comparar trilhas de usuários. Desta forma, é possível tirar proveito do comportamento histórico do usuário e prover serviços e conteúdos personalizados. O Vulcanus combina conceitos de computação ubíqua, como perfis de usuários, sensibilidade ao contexto, gerenciamento de trilhas, e análise de similaridade. Ele possui duas abordagens diferentes para a análise de similaridade de trilhas: padrão de recursos e padrão de categorias. Neste trabalho foi realizado uma análise assintótica, identificando a complexidade algorítmica do Vulcanus. Além disso, é proposto melhorias no algoritmo através de técnicas de programação dinâmica, onde o caso médio é aprimorado com uso de uma abordagem bottom-up. Com isto muitas comparações desnecessárias são evitadas e o Vulcanus 2.0 é apresentado com aperfeiçoamentos para cenários de caso médio. <![CDATA[Combining Leaf Shape and Texture for Costa Rican Plant Species Identification]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002016000100007&lng=en&nrm=iso&tlng=en In the last decade, research in Computer Vision has developed several algorithms to help botanists and non-experts to classify plants based on images of their leaves. LeafSnap is a mobile application that uses a multiscale curvature model of the leaf margin to classify leaf images into species. It has achieved high levels of accuracy on 184 tree species from Northeast US. We extend the research that led to the development of LeafSnap along two lines. First, LeafSnap’s underlying algorithms are applied to a set of 66 tree species from Costa Rica. Then, texture is used as an additional criterion to measure the level of improvement achieved in the automatic identification of Costa Rica tree species. A 25.6% improvement was achieved for a Costa Rican clean image dataset and 42.5% for a Costa Rican noisy image dataset. In both cases, our results show this increment as statistically significant. Further statistical analysis of visual noise impact, best algorithm combinations per species, and best value of <img width=32 height=32 id="_x0000_i1025" src="../../../../../img/revistas/cleiej/v19n1/1a070x.png" alt="k " class=math>, the minimal cardinality of the set of candidate species that the tested algorithms render as best matches is also presented in this research<hr/>Abstract in Spanish: En la última década, la investigación en Visión por Computadora ha desarrollado algoritmos para ayudar a botánicos e inexpertos a clasificar plantas basándose en fotos de sus hojas. LeafSnap es una aplicación móvil que usa un modelo de curvatura con multi-escala del margen de la hoja para clasificar especies de plantas. Ha obtenido altos niveles de exactitud con 184 especies de árboles del noreste de Estados Unidos. Extendemos la investigación de LeafSnap en dos aristas. Primero, se aplican los algoritmos de LeafSnap en un set de datos de 66 especies de árboles de Costa Rica. Luego, la textura es usada como criterio adicional para medir el nivel de mejora en la detección automática de especies de árboles de Costa Rica. Una mejora de un 25.6% se logra con el set de datos limpio y un 42.5% para el set de datos sucio de Costa Rica. En ambos casos, los resultados muestran un incremento significativo en la exactitud del modelo. Además se presenta un análisis estadístico del impacto visual del ruido, las mejores combinaciones de algoritmos por especie, y el mejor valor de k, que es la cardinalidad mínima del set de especies candidatas que surgen como respuesta de identificación. <![CDATA[An Adaptive and Hybrid Approach to Revisiting the Visibility Pipeline]]> http://www.scielo.edu.uy/scielo.php?script=sci_arttext&pid=S0717-50002016000100008&lng=en&nrm=iso&tlng=en We revisit the visibility problem, which is traditionally known in Computer Graphics and Vision fields as the process of computing a (potentially) visible set of primitives in the computational model of a scene. We propose a hybrid solution that uses a dry structure (in the sense of data reduction), a triangulation of the type <img width=32 height=32 id="_x0000_i1025" src="../../../../../img/revistas/cleiej/v19n1/1a080x.png" alt="Ja 1 " class=math>, to accelerate the task of searching for visible primitives. We came up with a solution that is useful for real-time, on-line, interactive applications as 3D visualization. In such applications the main goal is to load the minimum amount of primitives from the scene during the rendering stage, as possible. For this purpose, our algorithm executes the culling by using a hybrid paradigm based on viewing-frustum, back-face culling and occlusion models. Results have shown substantial improvement over these traditional approaches if applied separately. This novel approach can be used in devices with no dedicated processors or with low processing power, as cell phones or embedded displays, or to visualize data through the Internet, as in virtual museums applications.<hr/>Revisitamos o problema de visibilidade, que é tradicionalmente conhecido nas áreas de Computação Gráfica e Visão Computacional como o processo de computar um conjunto de primitivas de uma cena (potencialmente) visíveis. Propomos uma solução híbrida que usa uma estrutura enxuta (no sentido de redução de dados), uma triangulação do tipo J1a, para acelerar a tarefa de procura por primitivas visíveis. Chegamos a uma solução que é útil para aplicações interativas, on-line, e de tempo real, tal como visualização 3D. Em tais aplicações, o objetivo principal é carregar uma quantidade tão mínima quanto possível de primitivas da cena, durante o estágio de renderização. Para este propósito, nosso algoritmo executa o recorte de primitivas usando um paradigma híbrido baseado nos modelos ”viewing-frustum”, ”back-face culling” e ”occlusion”. Os resultados evidenciam melhoras substanciais sobre esses modelos, se aplicados separadamente. Este novo método pode ser usado em dispositivos sem pro cessador dedicado ou com pouco poder de processamento, como telefones celulares ou dispositivos de visualização embarcados, ou também para visualizar dados pela Internet, como em aplicações de museus virtuais.