Past schedules: 2010-2011, 2011-2012, 2012-2013, 2013-2014, current
Schedule: 2014-2015
Hugues Cassé (Université Toulouse 3 Paul Sabatier/IRIT) (29/04/2015)
-
Title:
OTAWA, un framework pour le calcul et l'expérimentation du temps d'exécution pire-cas -
Abstract:
La vérification des contraintes temporelles est essentielle pour la validation des systèmes temps-réel critiques. Cette vérification passe par le calcul du temps d'exécution pire cas (Worst Case Execution Time ou WCET) des différents composants du système. En pratique, obtenir le temps d'exécution par une campagne de mesure ne nous assure pas de produire un WCET sûr en raison de la complexité du matériel et des applications temps-réel. A l'inverse, le calcul de WCET par analyse statique produit une estimation sûre au prix d'une surestimation et d'une modélisation fine du logiciel et du matériel.
OTAWA est un outil open-source permettant la mise ne œuvre du calcul du WCET par analyse statique. L'idée n'est pas de fournir une solution unique mais un framework permettant (a) de s'adapter à différents types de jeux d'instruction, de matériels ou de logiciels et (b) d'adapter la méthode de calcul à une situation particulière. OTAWA fournit une infrastructure consistante incluant un certains nombres d'analyses statiques de base mais permettant facilement d'inclure de nouveaux types d'analyses pour des matériels non-standards. Au dessus du framework, peuvent être mis en œuvre des interfaces homme-machines facilitant la configuration des temps calculés et la visualisation de la consommation du temps : un greffon Eclipse est actuellement disponible.
Franck Védrine (CEA) (30/03/2015)
-
Title:
Analyse par interprétation abstraite de code exécutable
Survol de ses applications - vérification et propriétés type qualité de service -
Abstract:
Cet exposé présente le fonctionnement d'un analyseur statique par interprétation abstraite sur la base d'un code exécutable. Un tel analyseur analyse le code sur tous les comportements logiques possibles et effectue des approximations pour produire un diagnostic en temps fini. À la différence du code source, le code exécutable n'est pas structuré a priori. Nous montrerons comment l'analyse structure son support d'analyse au fur et à mesure de son avancée pour produire des résultats dont la précision dépend des domaines de valeurs utilisés - ex intervalles, domaines relationnels, mélange de divers domaines.
La réalisation d'une telle analyse peut fournir une brique logicielle qui offre des perspectives utilisateurs encore peu exploitées. Nous présenterons comment cette brique peut être utilisée dans les domaines de la vérification - exemple analyse de pile, absence de vulnérabilité -, dans les domaines de calcul de temps d'exécution, dans l'assistance au débogage.
Thanh Phuong Nguyen (ENSTA paris/U2IS) (25/02/2015)
-
Title:
Modèles locaux pour la reconnaissance d'objets et d'actions -
Abstract:
La représentation efficace d'un objet joue un rôle crucial dans plusieurs problèmes centraux de la vision par ordinateur tels que détection d'objets, reconnaissance de visages, classification de texture,... Concevoir un descripteur robuste pour des images ou des vidéos non-contraintes est un défi majeur, étant donné la grande variabilité entre les objets de la même classe pour différents critères : forme, texture, échelle, point de vue, rotation, occultation, illumination. Dans ce séminaire, nous présentons quelques contributions sur les descripteurs locaux et leurs applications en analyse de mouvement et en reconnaissance de texture.
Jean-Baptiste Bordes (École Polytechnique) (28/01/2015)
-
Title:
Utilisation de grammaires stochastiques et évidentielles pour la compréhension de scènes routières -
Abstract:
Au cours de la dernière décennie, des progrès considérables ont été accomplis en ce qui concerne la description d'image par des caractéristiques de bas-niveau. Des algorithmes d'apprentissage et de classification performants ont également été developpés. La communauté de la vision par ordinateur commence donc à aborder des tâches de plus en plus délicates, telles que la compréhension de scènes complexes. Celles-ci peuvent contenir un nombre important de catégories d'objets, ceux-ci ayant potentiellement une grande diversité intraclasse, pouvant être occultés, et étant soumis à des conditions de luminosité très variables. On voit ainsi apparaître un besoin croissant de modèles visuels pouvant appréhender des bases de données d'une telle complexité et permettant de franchir le fameux "fossé sémantique" existant entre les pixels d'une image et la description qui peut en être faite. Les approches compositionnels sont une catégorie de modèles qui semble pouvoir répondre à cette demande, ils décomposent une scène en objets, sous-objets, et ainsi de suite jusqu'au niveau du pixel. Des relations diverses peuvent être prises en compte à chaque niveau de la hiérarchie et une telle décomposition peut être prise telle quelle comme une interprétation de l'image. Quoique satisfaisantes sur le papier, ces méthodes peinent encore à fournir des résultats sensiblement meilleurs que des modèles beaucoup plus simples. Nous allons présenter les grammaires stochastiques, qui sont un exemple de modèle compositionnel probabiliste, puis nous verrons comment l'introduction de masses de croyance permet de répondre à certaines des difficultés des approches compositionnelles. Nous illustrerons ces approches dans le cas d'un type particulier de scène complexe qui sont les scènes routières dans un contexte multimodal. Ces travaux ont été réalisés dans le cadre d'un projet ANR-NSFC (projet PRETIV) et d'une coopération entre l'université de Pékin et l'Université de Technologie de Compiègne.
Matthieu Garrigues (ENSTA paris/U2IS) (08/01/2015)
-
Title:
Meta-programming with C++14 and its Application to Video and Image Processing -
Abstract:
One of the most powerful feature of C++ is its type templating system. It adds to the language an advanced meta-programming language running during the compilation. Most image and video libraries use it, for example, to abstract the image containers from the underlying pixel reprensentation. However, the downside of this paradigm is the highly complex and verbose code required to build advanced abstractions.
Released in August 2014, the C++14 standard addresses this issue with an improved C++ type inference. Powerful zero-cost compile-time abstractions can now be written much more concisely. In this talk, we will give a brief introduction to C++ template meta-programming, then present the features of our framework Iod, and how we applied theses concepts to our video processing framework Video++.
Thérèse Hardin (Université Pierre et Marie Curie/LIP6) (15/12/2014)
-
Title:
Etude LAFOSEC : Apport des langages fonctionnels à la minimisation des vulnérabilités -
Abstract:
L'étude LAFOSEC (ANSSI-Saferiver-Cedric) a montré que certains langages fonctionnels possèdent des traits permettant de faire disparaître des vulnérabilités inhérentes à d'autres langages. Il en reste cependant un certain nombre recensées dans ce travail. Un recueil de recommandations sur l'usage de Ocaml (l'un des langages analysés) a été élaboré afin d'éliminer les vulnérabilités restantes. Son contenu a été testé par la réalisation d'un prototype d'un générateur de parseurs XML suivant scrupuleusement ces prescriptions, qui a ensuite évolué en une application industrielle. L'exposé présentera d'abord le contenu de l'étude et quelques recommandations et donnera quelques détails sur la réalisation du prototype et de son extension industrielle.
Vladimir Alexandru Paun (ENSTA paris/U2IS) (04/12/2014)
-
Title:
Precise and Adaptable Worst-Case Execution Time Estimation in Hard Real-Time Systems -
Abstract:
Embedded systems are pervasive nowadays and those that bear hard-real time constraints need solid guaranties regarding the respect of their functional and non-functional properties. We address the issue of a non-functional property, which translates in our case into the timing analysis of hard real- time systems that provides a worst-case execution time (WCET) estimation. In our thesis we introduce a novel methodology that addresses every step of static WCET estimation with a high emphasis on re-targetability of the analysis, accuracy and scalability.
The adaptability of our analysis to platform changes is achieved mainly through the separation of the timing analysis from the hardware modeling part. To this end we introduce a novel hardware-modeling and -analysis framework (HiTASM) based on several extensions of the Abstract State Machine. The formalism allows the timed execution (time-accurate model) and dynamic hierarchical abstraction levels of the architectural model. Upon this versatile model we build several modules that target the accuracy of the timing estimation and the scalability of the method. In this category enter the Prediction Module, dynamic state-merge, equivalence classes based state- space partitioning, Oracle-based hierarchical abstraction-level choice, etc.
The WCET estimation method performs a conjoint symbolic execution of the processor’s HiTASM model and the program binary (a value analysis is performed giving the CFG, the instructions and their values). The Prediction Module and state merges are used to constrain the state space explosion and achieve the scalability of the WCET estimation.
Alexander Jordan (Technical University of Denmark) (03/11/2014)
-
Title:
A timing predictable processor and its toolchain -
Abstract:
Performing worst-case execution time (WCET) analysis on a modern microprocessor oftentimes has you moving in reverse. Over the years microprocessors --including those used in embedded real-time applications-- have added features that would benefit performance in the average case. Caches, deep pipelines, issuing instructions out-of-order; all of these make execution inherently unpredictable and when the WCET is targeted, work exactly against our goal. During static analysis, such dynamic optimizations render accurate tracking of the hardware intractable, resulting in pessimistic (but safe) estimations and thus ultimately overestimation of the WCET bound.
In a similar vein, state-of-the-art WCET analysis tools start from a binary file, reconstructing control flow, bounding iterations of loops, often struggling to see through program transformations performed by the compiler for optimization. This is followed by the developer having to providing annotations for parts of the program where automatic analysis failed.
In this talk, I am going to introduce the time-predictable real-time system architecture proposed by the T-CREST project. Its bottom-up approach has a focus on timing predictability. This is reflected by the design of the open- source Patmos processor and its toolchain, which tightly integrates compilation and worst-case analysis. My focus will be on toolchain aspects, explaining the role of the LLVM compiler framework, information passing and interaction between internal and external analyses, the use of intermediate representations and support for program flow annotations.
Jean-Charles Quinton (Polytech Clermont-Ferrand/Institut Pascal) (23/09/2014)
-
Title:
Anticipation, decision-making and active perception in humans and robots -
Abstract:
Active perception is widespread in living beings to efficiently sample information from complex environments at a limited energy cost. Sensations and actions are thus bound together from early perceptual processing stages. Similar strategies can be exploited in computer vision and robotics, in order to limit the cost on both the sensor and actuator sides, as well as requirements in processing time and computational resources. Bottom-up reactive processing can thus be combined with top-down predictions, with concurrent hypotheses competing for action. Emerging behaviors combining parallel and sequential aspects will be illustrated in a broad range of domains, from navigation in mobile robotics to categorization in cognitive and social psychology, especially in the context of LabEx IMobS3.
Gaspard Florentz (Parrot) (03/07/2014)
-
Title:
SuperFAST: Model-Based Adaptive Corner Detection for Scalable Robotic Vision -
Abstract:
In this study, we propose a novel solution to regulate the amount of interest points extracted from an image without significant additional computational cost. Our method acts at the very beginning of the detection process by using a corner occurrence model in order to predict the optimal threshold for a user-defined number of detections. Compared to existing approaches which guarantee a reasonable amount of corners by using a low threshold and then pruning the result, our approach is faster and more regular in terms of computation time as it avoids scoring and sorting the detected corners.
Using the FAST detector as testbed, the strategy outlined in this article is evaluated in typical environments for robotics applications, and we report improved detection reliability during important scene variations. Taking into account the underlying visual navigation algorithms, we show that by regularizing the data input our solution facilitates a stable processing load, lower inter-frame computation time, and robustness to scene variations.