scholarly journals The Stanford Microarray Database: implementation of new analysis tools and open source release of software

2007 ◽  
Vol 35 (Database) ◽  
pp. D766-D770 ◽  
Author(s):  
J. Demeter ◽  
C. Beauheim ◽  
J. Gollub ◽  
T. Hernandez-Boussard ◽  
H. Jin ◽  
...  
Solid Earth ◽  
2011 ◽  
Vol 2 (1) ◽  
pp. 53-63 ◽  
Author(s):  
S. Tavani ◽  
P. Arbues ◽  
M. Snidero ◽  
N. Carrera ◽  
J. A. Muñoz

Abstract. In this work we present the Open Plot Project, an open-source software for structural data analysis, including a 3-D environment. The software includes many classical functionalities of structural data analysis tools, like stereoplot, contouring, tensorial regression, scatterplots, histograms and transect analysis. In addition, efficient filtering tools are present allowing the selection of data according to their attributes, including spatial distribution and orientation. This first alpha release represents a stand-alone toolkit for structural data analysis. The presence of a 3-D environment with digitalising tools allows the integration of structural data with information extracted from georeferenced images to produce structurally validated dip domains. This, coupled with many import/export facilities, allows easy incorporation of structural analyses in workflows for 3-D geological modelling. Accordingly, Open Plot Project also candidates as a structural add-on for 3-D geological modelling software. The software (for both Windows and Linux O.S.), the User Manual, a set of example movies (complementary to the User Manual), and the source code are provided as Supplement. We intend the publication of the source code to set the foundation for free, public software that, hopefully, the structural geologists' community will use, modify, and implement. The creation of additional public controls/tools is strongly encouraged.


Author(s):  
Anis Baklouti ◽  
Nga Nguyen ◽  
Jean-Yves Choley ◽  
Faida Mhenni ◽  
Abdelfattah Mlika

2009 ◽  
Author(s):  
Ελένη Ζαχαρία

Στην παρούσα διατριβή προτείνονται πρωτότυπες μέθοδοι υπολογιστικής ανάλυσης που εστιάζονται στην ανάλυση και επεξεργασία εικόνων με εφαρμογές σε βιοϊατρικά δεδομένα. Η ανάλυση και η επεξεργασία εικόνων βιοϊατρικών δεδομένων, όπως είναι οι εικόνες μικροσυστοιχιών cDNA, καθώς και τα πηκτώματα που έχουν προέλθει από δισδιάστατη ηλεκτροφόρηση πρωτεϊνών, αποτελούν την τελευταία δεκαετία κορυφαίο ερευνητικό πεδίο στην επιστήμη της βιοπληροφορικής. Η βασική αιτία οφείλεται στην ανικανότητα των υπαρχόντων λογισμικών συστημάτων να αναλύσουν και να επεξεργαστούν τις εικόνες αυτές αυτόματα. Η παρέμβαση του χρήστη είναι σε αυτά απαραίτητη είτε για την αρχικοποίηση διαφόρων παραμέτρων τους, είτε για την διόρθωση εσφαλμένων αποτελεσμάτων τους. Ως εκ τούτου, η ανάλυση και επεξεργασία των εικόνων καθίσταται αφενός χρονοβόρα διότι οι χρήστες θα πρέπει να επιλέξουν τις κατάλληλες τιμές στις παραμέτρους και να διορθώσουν τα αποτελέσματα, αφετέρου υποκειμενική διότι οι χρήστες θα αρχικοποιήσουν και θα διορθώσουν με διαφορετικό τρόπο ο καθένας τα λογισμικά συστήματα, με αποτέλεσμα να οδηγηθούν σε διαφορετικά βιολογικά αποτελέσματα, τα οποία αποκλίνουν από τα σωστά. Οι προτεινόμενες μέθοδοι στην παρούσα διατριβή αξιοποιούν την πληροφορία έντασης των εικόνων και μετατρέπουν βασικά προβλήματα ανάλυσης και επεξεργασίας των προαναφερθέντων εικόνων, όπως αυτά της κατασκευής πλέγματος και κατάτμησης κηλίδων, σε προβλήματα βελτιστοποίησης, τα οποία επιλύονται χρησιμοποιώντας ως βασικό άξονα την μεθοδολογία των γενετικών αλγορίθμων. Καταρχήν, προτείνεται πρωτότυπη μέθοδος κατασκευής πλέγματος (gridding) σε εικόνες μικροσυστοιχιών cDNA. Η μέθοδος βασίζεται σε έναν γενετικό αλγόριθμο που καθορίζει δυο σύνολα από ευθύγραμμα τμήματα. Το πρώτο σύνολο περιέχει τα ευθύγραμμα τμήματα κάθετης κατεύθυνσης που απαρτίζουν το βέλτιστο πλέγμα, ενώ το δεύτερο σύνολο περιέχει τα ευθύγραμμα τμήματα οριζόντιας κατεύθυνσης. Κάθε σύνολο από αυτά περιέχει ευθύγραμμα τμήματα που είναι μεταξύ τους παράλληλα και δύνανται να έχουν συγχρόνως μια συγκεκριμένη κλίση. Μετά τον καθορισμό των συνόλων αυτών, κάθε ευθύγραμμο τμήμα ελέγχεται εάν έχει εντοπιστεί βέλτιστα και αν όχι τροποποιείται κατά ελάχιστο η θέση και η κλίση του έτσι ώστε να βρίσκεται στο μέσο της απόστασης μεταξύ δυο μπλοκ ή κηλίδων. Προτείνεται επίσης μια πρωτότυπη μέθοδος κατάτμησης κηλίδων (spot-segmentation) σε εικόνες μικροσυστοιχιών cDNA βάσει της συγκεκριμένης τρισδιάστατης μορφολογίας που παρουσιάζουν οι κηλίδες στις εικόνες αυτές. Ειδικότερα, αξιοποιώντας την τρισδιάστατη μορφολογία των κηλίδων, ορίζεται η μαθηματική εξίσωση ενός μοντέλου τρισδιάστατης αναπαράστασης των διαφόρων τύπων των κηλίδων, δηλαδή κηλίδων σε σχήμα κορυφής (peak-shaped), οροπεδίου (plateau-shaped), ηφαιστείου (volcano-shaped) και ντόνατς (doughnut shaped). Η μαθηματική εξίσωση αποτελείται από τρεις βασικούς όρους. Με τον πρώτο όρο αναπαριστάνεται η τιμή του υποβάθρου που υπάρχει γύρω από την κηλίδα, με τον δεύτερο όρο αναπαριστάνεται το κυρίως σώμα της κηλίδας, ενώ με τον τρίτο όρο αναπαριστάνεται (εάν υπάρχει) η εσωτερική κοιλότητα της κηλίδας. Χρησιμοποιώντας την μαθηματική εξίσωση, κάθε πραγματική κηλίδα αναπαριστάνεται κατά βέλτιστο τρόπο με μια κηλίδα μοντέλο. Για την βελτιστοποίηση του μοντέλου κηλίδας σχεδιάστηκε και υλοποιήθηκε γενετικός αλγόριθμος ο οποίος καθορίζει, για κάθε κηλίδα, τις βέλτιστες τιμές που πρέπει να έχουν οι παράμετροι της μαθηματικής εξίσωσης. Εξαιτίας του θορύβου που υπάρχει στις εικόνες αυτές, ο γενετικός αλγόριθμος λαμβάνει υπόψη του την αβεβαιότητα που υπάρχει στις εντάσεις των πραγματικών κηλίδων και η οποία εκτιμάται χρησιμοποιώντας την ασαφή λογική (Fuzzy Logic). Με αυτόν τον τρόπο η “ομαλή” τρισδιάστατη επιφάνεια της κηλίδας μοντέλο μπορεί να πλησιάσει βέλτιστα την “ανώμαλη” τρισδιάστατη επιφάνεια της πραγματικής κηλίδας. Οι πραγματικές κηλίδες κατατέμνονται μέσω της απεικόνισης του περιγράμματος των κηλίδων-μοντέλων. Προτείνεται τέλος μια μέθοδος κατάτμησης κηλίδων σε εικόνες πηκτώματος προερχόμενο από δισδιάστατη ηλεκτροφόρηση πρωτεϊνών. Η μεθοδολογία που αναπτύχθηκε περιλαμβάνει δυο κύρια βήματα: (i) Κατάτμηση της εικόνας του πηκτώματος σε περιοχές γύρω από τα τοπικά μέγιστα που εμφανίζονται στις εντάσεις των εικονοστοιχείων της και (ii) Κατάτμηση των κηλίδων που βρίσκονται στις παραπάνω περιοχές. Η διαδικασία της κατάτμησης βασίζεται στην δυνατότητα του μοντέλου διάχυσης να αναπαραστήσει την τρισδιάστατη μορφολογία των κηλίδων αυτών και επιλύεται χρησιμοποιώντας γενετικούς αλγορίθμους. Ειδικότερα, ο πρωτότυπος γενετικός αλγόριθμός λαμβάνει υπόψη του τυχόν επικαλύψεις γειτονικών κηλίδων και καθορίζει συγχρόνως τις παραμέτρους πολλαπλών μοντέλων διάχυσης τα οποία αναπαριστάνουν βέλτιστα γειτονικές κηλίδες. Η ανίχνευση και κατάτμηση των επικαλυπτόμενων κηλίδων επιτυγχάνεται με την υπέρθεση δυο ή περισσοτέρων τρισδιάστατων μοντέλων διάχυσης που αναπαριστάνουν τις γειτονικές κηλίδες. Οι πραγματικές κηλίδες κατατέμνονται μέσω της απεικόνισης του περιγράμματος των κηλίδων-μοντέλων. Οι προτεινόμενες μέθοδοι κατασκευής πλέγματος και κατάτμησης κηλίδων εφαρμόσθηκαν σε συνθετικές και πραγματικές εικόνες οι οποίες πάρθηκαν από καθιερωμένες στην βιβλιογραφία βάσεις δεδομένων όπως η βάση δεδομένων του Stanford (Stanford Microarray Database). Η εφαρμογή τους έδειξε ότι επιτυγχάνουν υψηλότερη ακρίβεια προσδιορισμού πλέγματος και κατάτμησης κηλίδων σε σύγκριση με αντίστοιχες καθιερωμένες μεθόδους και ευρέως χρησιμοποιούμενα λογισμικά συστήματα.


Author(s):  
Taiga Abe ◽  
Ian Kinsella ◽  
Shreya Saxena ◽  
Liam Paninski ◽  
John P. Cunningham

AbstractA major goal of computational neuroscience is to develop powerful analysis tools that operate on large datasets. These methods provide an essential toolset to unlock scientific insights from new experiments. Unfortunately, a major obstacle currently impedes progress: while existing analysis methods are frequently shared as open source software, the infrastructure needed to deploy these methods – at scale, reproducibly, cheaply, and quickly – remains totally inaccessible to all but a minority of expert users. As a result, many users can not fully exploit these tools, due to constrained computational resources (limited or costly compute hardware) and/or mismatches in expertise (experimentalists vs. large-scale computing experts). In this work we develop Neuroscience Cloud Analysis As a Service (NeuroCAAS): a fully-managed infrastructure platform, based on modern large-scale computing advances, that makes state-of-the-art data analysis tools accessible to the neuroscience community. We offer NeuroCAAS as an open source service with a drag-and-drop interface, entirely removing the burden of infrastructure expertise, purchasing, maintenance, and deployment. NeuroCAAS is enabled by three key contributions. First, NeuroCAAS cleanly separates tool implementation from usage, allowing cutting-edge methods to be served directly to the end user with no need to read or install any analysis software. Second, NeuroCAAS automatically scales as needed, providing reliable, highly elastic computational resources that are more efficient than personal or lab-supported hardware, without management overhead. Finally, we show that many popular data analysis tools offered through NeuroCAAS outperform typical analysis solutions (in terms of speed and cost) while improving ease of use and maintenance, dispelling the myth that cloud compute is prohibitively expensive and technically inaccessible. By removing barriers to fast, efficient cloud computation, NeuroCAAS can dramatically accelerate both the dissemination and the effective use of cutting-edge analysis tools for neuroscientific discovery.


Author(s):  
Lucas Torri ◽  
Guilherme Fachini ◽  
Leonardo Steinfeld ◽  
Vesmar Camara ◽  
Luigi Carro ◽  
...  

2001 ◽  
Vol 29 (1) ◽  
pp. 152-155 ◽  
Author(s):  
G. Sherlock

Sign in / Sign up

Export Citation Format

Share Document