Technological and Educational Challenges of Resilient Computing

Author(s):  
Luca Simoncini

The adjective resilient has been used in dependable computing essentially as a synonym of fault-tolerant, thus ignoring the unexpected aspect of the phenomena the systems may have to face. These phenomena are very relevant when moving to systems like the future large, networked, evolving systems constituting complex information infrastructures that are the emergence of the ubiquitous systems that will support Ambient Intelligence. From an educational point of view, very few Universities offer a comprehensive track that is able to prepare students able to cope with the challenges posed by the design of ubiquitous systems. To fill both gaps, a European Network of Excellence, ReSIST – Resilience for Survivability in IST, was run from January 2006 to March 2009 (see http://www.resist-noe.org/). In this article the technological challenges, the related educational issues and a proposed MSc curriculum in Resilient Computing that arise from the results of ReSIST are presented and discussed.

Author(s):  
Luca Simoncini

The adjective resilient has been used in dependable computing essentially as a synonym of fault-tolerant, thus ignoring the unexpected aspect of the phenomena the systems may have to face. These phenomena are very relevant when moving to systems like the future large, networked, evolving systems constituting complex information infrastructures that are the emergence of the ubiquitous systems that will support Ambient Intelligence. From an educational point of view, very few Universities offer a comprehensive track that is able to prepare students able to cope with the challenges posed by the design of ubiquitous systems. To fill both gaps, a European Network of Excellence, ReSIST – Resilience for Survivability in IST was run from January 2006 to March 2009 (see http://www.resist-noe.org/). In this article the technological challenges, the related educational issues and a proposed MSc curriculum in Resilient Computing that arise from the results of ReSIST are presented and discussed.


2007 ◽  
Author(s):  
Νικόλαος Δρόσος

Το όραμα της περιρρέουσας νοημοσύνης (Ambient Intelligence) αφορά μια νέα μορφή υπολογιστικού περιβάλλοντος εμπλουτισμένου με υπολογιστικές συσκευές ενσωματωμένες στο φυσικό περιβάλλον που μπορούν να συνεργάζονται και να εκτελούν εφαρμογές, οι υπηρεσίες των οποίων «ακολουθούν» το χρήστη και είναι άμεσα προσβάσιμες οποτεδήποτε και από οπουδήποτε. Σε μια από τις πιθανές υλοποιήσεις του, η περιρρέουσα τεχνολογία ενσωματώνεται σε καθημερινά αντικείμενα όπως έπιπλα, ρούχα, οικιακές και ηλεκτρικές συσκευές, οχήματα, δρόμους, και «έξυπνα» υλικά, ενώ οι άνθρωποι εξοπλίζονται με εργαλεία και διεργασίες απαραίτητες για την επίτευξη αλληλεπιδράσεων με αυτά τα περιβάλλοντα. Ένα AmI περιβάλλον μπορεί να φιλοξενεί μεγάλο αριθμό AmI εφαρμογών οι οποίες χρησιμοποιούν τις υπηρεσίες υποδομής που παρέχονται από το περιβάλλον και τις συσκευές/αντικείμενα που το απαρτίζουν. Βασικό χαρακτηριστικό ενός τέτοιου περιβάλλοντος αποτελεί η συνένωση του φυσικού και του ψηφιακού χώρου, δηλαδή τα απτά φυσικά αντικείμενα και περιβάλλοντα αποκτούν και μια ψηφιακή διάσταση. Καθώς ο υπολογιστής «εξαφανίζεται» στα περιβάλλοντα που φιλοξενούν τις δραστηριότητες των ανθρώπων, τα αντικείμενα που βρίσκονται μέσα σε αυτά επαυξάνονται με στοιχεία πληροφορικής τεχνολογίας και επικοινωνίας (Information and Communication Technology components), όπως αισθητήρες, ενεργοποιητές, επεξεργαστές, μνήμη, μονάδες ασύρματης επικοινωνίας κτλ., και αποκτούν δυνατότητες λήψης, αποθήκευσης, επεξεργασίας και μετάδοσης πληροφοριών και δεδομένων. Τα αντικείμενα αυτά αναφέρονται ως «επαυξημένα» αντικείμενα ή τεχνουργήματα, ενώ τα συστήματα τέτοιων αντικειμένων καλούνται συστήματα διάχυτου υπολογισμού (ubiquitous systems). Τα αντικείμενα μπορεί να είναι νέες ή και βελτιωμένες εκδόσεις υπαρχόντων αντικειμένων, τα οποία με τη χρήση της περιρρέουσας τεχνολογίας επιτρέπουν στους ανθρώπους να εκτελούν νέες ή και παραδοσιακές εργασίες ευκολότερα και πιο αποδοτικά. Οι χρήστες μπορεί σε πολλές περιπτώσεις να μην αντιλαμβάνονται την ύπαρξη των ίδιων υπολογιστικών συσκευών που διέπουν αυτό το νέο κόσμο τους, αντιλαμβάνονται όμως τις υπηρεσίες που τους παρέχουν στον καθημερινό τρόπο ζωής τους. Η παροχή εννοιολογικών μοντέλων και διαμεσολαβητικών λογισμικών για τη δημιουργία, τη διαχείριση, την επικοινωνία και τη συλλογιστική που διέπει αυτές τις νέες οικολογίες (ή εφαρμογών περιρρέουσας νοημοσύνης) είναι επιτακτική, καθώς η συμμετοχή των ανθρώπων θεωρείται κρίσιμη για την επιτυχή υιοθέτηση αυτού του νέου υπολογιστικού παραδείγματος. Η διδακτορική διατριβή διερευνά συγκεκριμένα το μοντέλο Συνδέσμων/Συνάψεων, και προτείνει μια γενική αρχιτεκτονική για συστήματα διάχυτου υπολογισμού και το διαμεσολαβητικό λογισμικό (middleware) GAS-OS. Το πρώτο παρέχει ένα εννοιολογικό μοντέλο για τη δημιουργία AmI εφαρμογών μέσω μιας υψηλού επιπέδου προγραμματιστικής διαδικασίας. Το μοντέλο αυτό μπορεί να κατανοηθεί και να εφαρμοστεί μέσω υποστηρικτικών εργαλείων τόσο από προγραμματιστές όσο και από τελικούς χρήστες για το χειρισμό, σε διαφορετική λεπτομέρεια, των χαρακτηριστικών και της λειτουργικότητας των εφαρμογών. Η προτεινόμενη αρχιτεκτονική παρουσιάζει τη σχεδίαση ενός γενικού συστήματος ικανού να αντιμετωπίσει τις σχεδιαστικές και λειτουργικές απαιτήσεις που εντοπίζονται σε περιβάλλοντα περιρρέουσας νοημοσύνης. Η γενική αρχιτεκτονική εμπλουτισμένη με το εννοιολογικό μοντέλο συγκλίνουν στο σχεδίασμά και την υλοποίηση του διαμεσολαβητικού λογισμικού GAS-OS. Στην προσέγγιση της διατριβής οι εφαρμογές αποτελούνται από αλληλεπιδρώντα τεχνουργήματα που έχουν ενσωματωμένη την απαιτούμενη τεχνολογία. To GAS-OS είναι αλληλένδετο με τα τεχνουργήματα και υποστηρίζει τη συλλογική τους λειτουργία με διαφανή προς το χρήστη τρόπο. Το εννοιολογικό μοντέλο και το διαμεσολαβητικό λογισμικό αποτελούν μέρη του Gadgetware Architectural Style (GAS) που αποτελεί ένα γενικό πλαίσιο το οποίο διαμοιράζεται από χρήστες και σχεδιαστές για συνεπή περιγραφή, χρήση και συλλογιστική εφαρμογών σε περιβάλλοντα περιρρέουσας νοημοσύνης. Το GAS προτείνει ένα κατάλληλο σχεδιαστικό λεξιλόγιο, μια διαδικασία διαμόρφωσης εφαρμογών και κανόνες σημασιολογικής ερμηνείας που διευκολύνουν την ανάπτυξή τους. Το GAS θεωρεί τη διαδικασία διαμόρφωσης και χρήσης σύνθετων συλλογών από αλληλεπιδρώντα τεχνουργήματα, παρόμοια με τη διαδικασία σχεδιασμού συστημάτων λογισμικού από μηχανικούς με βάση δομικά στοιχεία (components). Στην προτεινόμενη προσέγγιση, το μοντέλο συνδέσμων/συνάψεων παρέχει μια υψηλού επιπέδου αφαίρεση των διεπαφών των δομικών στοιχείων και της διαδικασίας σύνθεσής τους. Η διδακτορική διατριβή καταγράφει τις σχεδιαστικές και λειτουργικές απαιτήσεις του χώρου της περιρρέουσας νοημοσύνης με βάση τις οποίες αφενός προτείνει μια γενική αρχιτεκτονική για τέτοια συστήματα, αφετέρου διεξάγει μια κριτική παρουσίαση υπαρχουσών προσεγγίσεων ανά τον κόσμο. Στη συνέχεια παρουσιάζει το αρχιτεκτονικό στυλ GAS και επικεντρώνει στην ανάλυση, σχεδίαση, υλοποίηση και αξιολόγηση του διαμεσολαβητικού λογισμικού GAS-OS. Τέλος προβάλλει τη διάσταση των εργαλείων μέσω των οποίων διευκολύνεται η αλληλεπίδραση χρηστών και AmI εφαρμογών και καταλήγει με συμπεράσματα και μελλοντικές κατευθύνσεις της διεξαχθείσας έρευνας.


2019 ◽  
pp. 889-902
Author(s):  
Mohammed A. AlZain ◽  
Alice S. Li ◽  
Ben Soh ◽  
Mehedi Masud

One of the main challenges in cloud computing is to build a healthy and efficient storage for securely managing and preserving data. This means a cloud service provider needs to make sure that its clients' outsourced data are stored securely and, data queries and retrievals are executed correctly and privately. On the other hand, it may also mean businesses are willing to outsource their data to a third party only if they trust their data are not accessible and visible to the service provider and other non-authorized parties. However, one of the major obstacles faced here for ensuring data reliability and security is Byzantine faults. While Byzantine fault tolerance (BFT) has received growing attention from the academic research community, the research done is generally from the distributed computing point of view, and hence finds little practical use in cloud computing. To that end, the focus of this paper is to discuss how these faults can be tolerated with the authors' proposed conceptualization of Byzantine data faults and fault-tolerant architecture in cloud data management.


2011 ◽  
Vol 3 (2) ◽  
pp. 1-15 ◽  
Author(s):  
Ricardo S. Alonso ◽  
Dante I. Tapia ◽  
Juan M. Corchado

The significance that Ambient Intelligence (AmI) has acquired in recent years requires the development of innovative solutions. In this sense, the development of AmI-based systems requires the creation of increasingly complex and flexible applications. The use of context-aware technologies is an essential aspect in these developments in order to perceive stimuli from the context and react upon it autonomously. This paper presents SYLPH, a novel platform that defines a method for integrating dynamic and self-adaptable heterogeneous Wireless Sensor Networks (WSN). This approach facilitates the inclusion of context-aware capabilities when developing intelligent ubiquitous systems, where functionalities can communicate in a distributed way. A WSN infrastructure has been deployed for testing and evaluating this platform. Preliminary results and conclusions are presented in this paper.


2016 ◽  
Vol 25 (09) ◽  
pp. 1650113 ◽  
Author(s):  
Hadi Mardani Kamali ◽  
Shaahin Hessabi

Advanced Encryption Standard (AES) is the most popular symmetric encryption method, which encrypts streams of data by using symmetric keys. The current preferable AES architectures employ effective methods to achieve two important goals: protection against power analysis attacks and high-throughput. Based on a different architectural point of view, we implement a particular parallel architecture for the latter goal, which is capable of implementing a more efficient pipelining in field-programmable gate array (FPGA). In this regard, all intermediate registers which have a role for unrolling the main loop will be removed. Also, instead of unrolling the main loop of AES algorithm, we implement pipelining structure by replicating nonpipelined AES architectures and using an auto-assigner mechanism for each AES block. By implementing the new pipelined architecture, we achieve two valuable advantages: (a) solving single point of failure problem when one of the replicated parts is faulty and (b) deploying the proposed design as a fault tolerant AES architecture. In addition, we put emphasis on area optimization for all four AES main functions to reduce the overhead associated with AES block replication. The simulation results show that the maximum frequency of our proposed AES architecture is 675.62[Formula: see text]MHz, and for AES128 the throughput is 86.5[Formula: see text]Gbps which is 30.9% better than its closest existing competitor.


2021 ◽  
Vol 8 ◽  
Author(s):  
Miquel Kegeleirs ◽  
Giorgio Grisetti ◽  
Mauro Birattari

A robot swarm is a decentralized system characterized by locality of sensing and communication, self-organization, and redundancy. These characteristics allow robot swarms to achieve scalability, flexibility and fault tolerance, properties that are especially valuable in the context of simultaneous localization and mapping (SLAM), specifically in unknown environments that evolve over time. So far, research in SLAM has mainly focused on single- and centralized multi-robot systems—i.e., non-swarm systems. While these systems can produce accurate maps, they are typically not scalable, cannot easily adapt to unexpected changes in the environment, and are prone to failure in hostile environments. Swarm SLAM is a promising approach to SLAM as it could leverage the decentralized nature of a robot swarm and achieve scalable, flexible and fault-tolerant exploration and mapping. However, at the moment of writing, swarm SLAM is a rather novel idea and the field lacks definitions, frameworks, and results. In this work, we present the concept of swarm SLAM and its constraints, both from a technical and an economical point of view. In particular, we highlight the main challenges of swarm SLAM for gathering, sharing, and retrieving information. We also discuss the strengths and weaknesses of this approach against traditional multi-robot SLAM. We believe that swarm SLAM will be particularly useful to produce abstract maps such as topological or simple semantic maps and to operate under time or cost constraints.


Author(s):  
Florian Kriebel ◽  
Faiq Khalid ◽  
Bharath Srinivas Prabakaran ◽  
Semeen Rehman ◽  
Muhammad Shafique

AbstractFault-tolerance using (full-scale) redundancy-based techniques has been employed to detect and correct reliability errors (i.e., soft errors), but they pose significant area and power overhead. On the other hand, due to the masking and the error tolerance properties at different system layers and of different applications, respectively, reliable heterogeneous architectures have been emerged as an attractive design choice for power-efficient dependable computing platforms. This chapter discusses the building blocks of such computing systems, based on both embedded and superscalar processors, with different reliability (fault-tolerant) modes at the architecture layer to memories like caches, for heterogeneous in-order and out-of-order processors. We provide a comprehensive reliability, i.e., soft error, vulnerability analysis of different components in in-order and out-of-order processors, e.g., caches. We also discuss different methodologies to improve the performance and power of such a system by analyzing these vulnerabilities. Moreover, we show how such heterogeneous hardware-level hardening modes can further be complemented by software-level techniques that can be realized using a reliability-driven compiler (as introduced in Chapter “Dependable Software Generation and Execution on Embedded Systems”).


2021 ◽  
pp. 26-35
Author(s):  
Andrey Kalashnikov ◽  
◽  
Konstantin Bugajskij ◽  

Purpose of the article: development of a mechanism for quantitative evaluation of elements of complex information systems in conditions of insufficient information about the presence of vulnerabilities. Research method: mathematical modeling of uncertainty estimation based on binary convolution and Kolmogorov complexity. Data banks on vulnerabilities and weaknesses are used as initial data for modeling. The result: it is shown that the operation of an element of a complex network can be represented by data transformation procedures, which consist of a sequence of operations in time, described by weaknesses and related vulnerabilities. Each operation can be evaluated at a qualitative level in terms of the severity of the consequences in the event of the implementation of potential weaknesses. The use of binary convolution and universal coding makes it possible to translate qualitative estimates into a binary sequence – a word in the alphabet {0,1}. The sequence of such words — as the uncertainty function — describes the possible negative consequences of implementing data transformation procedures due to the presence of weaknesses in an element of a complex system. It is proposed to use the Kolmogorov complexity to quantify the uncertainty function. The use of a Turing machine for calculating the uncertainty function provides a universal mechanism for evaluating elements of complex information systems from the point of view of information security, regardless of their software and hardware implementation.


Sign in / Sign up

Export Citation Format

Share Document