Horizon Maths 2014

Horizon Maths 2014 was organized by the FSMP and IFP Energies nouvelles. It took place on December 15th and 16th 2014 at IFPEN: 1, avenue de Bois-Préau, 92500 Rueil-Malmaison.

 

Program

Videos

Méthodes pour la chimie ab initio
Optimisation sans dérivée
Maillages et Applications IndustrieLLES
Visualisation


Toutes les vidéos n'ont pas pu être mises en ligne, pour des raisons indépendantes de la volonté des conférenciers, ou dans certains cas pour des raisons de confidentialité.

Méthodes pour la chimie ab initio

Pascal Raybaud (IFPEN) "Enjeux de la performance numérique pour les calculs
ab initio en catalyse"

Cliquez ici pour télécharger la présentation de la conférence.

Pascal Raybaud est titulaire d'un doctorat de chimie numérique obtenu à l'UPMC et à l'Université technique de Vienne. Il a passé son habilitation universitaire en 2008. Il est aujourd'hui expert à la Direction Catalyse et Séparation d'IFP Energies nouvelles, et dirige un projet de recherche sur la chimie numérique appliquée à la catalyse.

Résumé
: Les travaux théoriques fondateurs de Walter Kohn ont établi les principes premiers de la théorie de la fonctionnelle de la densité (DFT) permettant de résoudre de façon simplifiée la célèbre équation de Schrödinger appliquée à des systèmes moléculaires complexes. Depuis lors, les progrès incessants de la chimie théorique ont ouvert les portes de l’ère de la modélisation à l’échelle atomique des catalyseurs utilisés dans l'industrie du raffinage et de la pétrochimie. Au travers d’exemples applicatifs, cette présentation illustrera les enjeux d’une performance numérique constamment améliorée pour gravir les échelles de la précision des méthodes [1] et de la complexité des modèles [2] et ainsi mieux comprendre le fonctionnement du catalyseur réel. Les améliorations de performance numérique pourront également être mises à profit pour le « criblage » à haut débit de descripteurs chimiques et la prédiction de propriétés catalytiques.[3]

Références

[1] J.P. Perdew, K. Schmidt “Jacob’s ladder of density functional approximations for the exchange-correlation energy. In Density Functional Theory and Its Applications to Materials“; Van Doren, V. E., Van Alseoy, K., Geerlings, P., Eds.; AIP Press: New York, 2001.

[2] C. Chizallet, P. Raybaud. “Density functional theory simulations of complex catalytic materials in reactive environments: beyond the ideal surface at low coverage“. Catal. Sci. Technol. 4 (2014) 2797.

[3] J. K. Nørskov, T. Bligaard, J. Rossmeisl, C. H. Christensen. “Towards the computational design of solid catalysts.“ Nature Chemistry 1 (2009) 37.

Thierry Deutsch (CEA Grenoble) "Les ondelettes, une base flexible permettant un contrôle fin de la précision et la mise au point des méthodes ordre N pour le calcul de la structure électronique via BigDFT"

Cliquez ici pour télécharger la présentation de la conférence.

Dr. Thierry Deutsch, est directeur de recherche au laboratoire de simulation atomistique (L_Sim, CEA-INAC). Diplomé de l'école Supérieure d'électricité en 1992, il passe un doctorat en sciences des Matériaux à Grenoble en 1995. Après un postdoctorat de deux ans à Belfast, il intègre le CEA à Grenoble. Il est spécialiste du calcul haute performance dans le domaine des matériaux. Il est responsable du laboratoire L_Sim qui a reçu 3 prix Bull-Fourier, en 2009 pour BigDFT, en 2012 pour TB_Sim et en 2014 pour Fiesta. Il a coordonné le projet européen BigDFT dont le code éponyme a montré sa capacité à calculer de très grands systèmes (plus de 18 000 atomes) avec des algorithmes innovants tout en gardant une précision remarquable. 

Résumé : Nous montrerons les principales difficultés algorithmiques et numériques rencontrées lors du développement du code BigDFT fondé sur les ondelettes de Daubechies. 

Benjamin Stamm (UPMC) "A posteriori estimation for non-linear eigenvalue problems in the context of DFT-methods"

Cliquez ici pour télécharger la présentation de la conférence.

Benjamin Stamm est titulaire d'un doctorat de mathématiques obtenu à l'Ecole polytechnique fédérale de Lausanne. Il est aujourd'hui maître de conférences avec chaire CNRS au Laboratoire Jacques-Louis Lions (LJLL) de l'UPMC. 

AbstractWe propose a new method, based on perturbation theory, to post-process the planewave approximation of the eigenmodes of periodic Schrödinger operators. We then use this post-processing to construct an accurate a posteriori estimator for the approximations of the (nonlinear) Gross–Pitaevskii equation, or more generally for DFT-models, valid at each step of a self-consistent procedure. This allows us to design an adaptive algorithm for solving the Gross–Pitaevskii equation or the DFT-model, which automatically refines the discretization along the convergence of the iterative process, by means of adaptive stopping criteria. We will conclude the presentation with numerical illustrations.

Filippo Lipparini (Universität Mainz) "Large, polarizable QM/MM/Continuum computations: ancient wishes and recent advances"

Cliquez ici pour télécharger la présentation de la conférence.

June 2009 : Master degree in Chemistry, University of Pisa and Scuola Normale Superiore (Pisa)
January 2013 : Ph. D. in Computational Chemistry, Scuola Normale Superiore (Pisa). Advisors: Benedetta Mennucci and Vincenzo Barone
January 2013 - May 2014 : Postdcoc, UPMC Paris 06, Laboratoire Jacques-Louis Lions and Laboratoire de Chimie Theorique. Advisors: Eric Cances, Yvon Maday, Jean-Philip Piquemal
August 2014 - current : Alexander von Humboldt Postdoctoral fellow, University of Mainz. Advisor: Jurgen Gauss 

Abstract : In this presentation, I will introduce polarizable embedding schemes for multiscale computations, with particular focus on the computational challenge that they represent. In particular, I will discuss the coupling between polarizable force fields and polarizable continuum solvation models and the use of linear scaling techniques, including ddCOSMO, a new algorithm recently introduced for the Conductor-like screening model, to make computation feasible for large systems.

Eric Cancès (Ecole des Ponts ParisTech) "Aspects mathématiques de la théorie fonctionnelle de la densité (DFT)"

Cliquez ici pour télécharger la présentation de la conférence.

Ingénieur de l’Ecole polytechnique, ingénieur et docteur de l’Ecole des Ponts, HDR obtenue à l'Université Paris Dauphine
Chercheur au Cermics (Ecole des Ponts), membre du projet Inria Matherials

Résumé : Dans cette présentation, je rappellerai brièvement la dérivation de la théorie de la fonctionnelle de la density (DFT) à partir de l’équation de Schrödinger à N corps, et je présenterai quelques problèmes mathématiques concernant les modèles de DFT pour les systèmes infinis ordonnés (cristaux parfaits), les perturbations des systèmes infinis ordonnés (cristaux présentant des défauts) et systèmes infinis désordonnés (certains alliages, matériaux amorphes). 


Optimisation sans dérivée


Delphine Sinoquet (IFPEN) "Applications de l'optimisation sans dérivée dans le secteur pétrolier et le domaine des énergies marines renouvelables"

Applications de l’optimisation sans dérivées à IFPEN, par Delphine Sinoquet (IFPEN) from Contact FSMP on Vimeo.

Cliquez ici pour télécharger la présentation de la conférence.

Doctorat en mathématiques appliquées de l’Université Paris 13 obtenu en 1995. Ingénieur de recherche en optimisation dans le département Mathématiques Appliquées d’IFPEN. En charge d’un projet de recherche collaboratif en optimisation et incertitudes.

RésuméL’optimisation intervient dans de nombreuses applications IFPEN : estimation de paramètres des modèles numériques à partir de données expérimentales (géosciences,  moteurs , réacteurs chimiques), conception optimale (éoliennes , risers, réseaux de pipelines) , optimisation des paramètres de dispositifs expérimentaux (bancs moteurs, catalyse). Ces optimisations consistent à minimiser sous contraintes une ou des fonctionnelles souvent complexes et coûteuses à estimer (solution de modèles numériques complexes  ou des mesures expérimentales). Nous développons nos propres outils d'optimisation ou adaptons les outils existants afin de répondre au mieux aux besoins de nos applications. Dans cet exposé , nous illustrons  les principaux verrous à lever pour répondre à ces besoins.

Emmanuel Vazquez (SUPELEC) "Nouvelles fonctions de perte pour l'optimisation bayésienne"

Nouvelles fonctions de perte pour l’optimisation bayésienne, par Emmanuel Vazquez (SUPELEC) from Contact FSMP on Vimeo.

Cliquez ici pour télécharger la présentation de la conférence.

Emmanuel Vazquez was born in France in 1976. He entered the Ecole Normale Supérieure de Cachan in 1997 and was awarded the Agrégation de Physique Appliquée in 2000. In 2001, he obtained a Diplome d'Etudes Approfondies in Mathematics for Vision and Learning, from the Ecole Normale Supérieure de Cachan. He received the Ph.D. degree in 2005 from the Orsay-Paris XI University, with a thesis on kernel-based non-linear systems black-box modeling.
Since 2004, he is working as an assistant Professor at Supelec, France. His scientific interests include kernel methods, kriging/Gaussian processes for modeling the output of computer models, and Bayesian sequential search strategies. 

Abstract : We consider the problem of maximizing a real-valued continuous function f using a Bayesian approach. Since the early work of Jonas Mockus and Antanas Zilinskas in the 70's, the problem of optimization is usually formulated by considering the loss function max f - M_n (where M_n denotes the best function value observed after n evaluations of f).  This loss function puts emphasis on the value of the maximum, at the expense of the location of the maximizer. In the special case of a one-step Bayes-optimal strategy, it leads to the classical Expected Improvement (EI) sampling criterion. This is a special case of a Stepwise Uncertainty Reduction (SUR) strategy, where the risk associated to a certain uncertainty measure (here, the expected loss) on the quantity of interest is minimized at each step of the algorithm. In this talk, we will show how to modify the classical EI sampling strategy to obtain a faster reduction of the error on both the value and the location of the maximizer. We will also show how to modify the classical EI sampling strategy to deal with noisy evaluation results. 

Serge Gratton (INPT et Laboratoire commun IRIT-CERFACS) "Optimisation sans dérivée : algorithmes stochastiques et complexité" 

Optimisation sans dérivée : algorithmes stochastiques et complexité, par Serge Gratton (CERFACS) from Contact FSMP on Vimeo.

Cliquez ici pour télécharger la présentation de la conférence.

Serge Gratton got a PhD in applied mathematics in Toulouse. He is currently full professor of applied mathematics in the University of Toulouse and director the CERFACS-IRIT joint laboratory. His research nowadays mainly focuses on theoretical and practical aspects of optimisation methods for large scale gradient based optimization or derivative free optimization. He is also the scientific coordinator of the CERFACS "Parallel Algorithms" team working on numerical methods for solving systems of equations and optimization problems. He is on the editorial board of Optimization Methods and Software and has co-authored 70 peer-reviewed papers in international journals covering theoretical and practical aspects of numerical algorithms.

Résumé : Les principales familles méthodes déterministes permettant d'optimiser une fonction sans utiliser de dérivée de celle-ci seront présentées. Il s'agira de montrer les principaux ingrédients à combiner pour permettre un bonne efficacité pratique de ces algorithmes, tout en précisant les résultats
mathématiques de convergence disponibles dans la littérature. Des applications seront aussi présentées sur des problèmes industriels, montrant la pertinence de ces méthodes pour une grande variété de situations. 

Wim van Ackooij (EDF) "Optimisation sous contraintes probabilistes et applications en management d’énergies"

Cliquez ici pour télécharger la présentation de la conférence.

Wim van Ackooij est né en 1979 à La Haye au Pays-Bas. Après l’obtention
de son MsC en « Technische Wiskunde » à l’Université Technique de Delft, il s’est installé en France en 2003 et est salarié d'EDF R&D depuis. Il y est chercheur expert et travaille sur les techniques d’Optimisation (sous incertitudes) avec des applications en Management d’Energie. En parallèle il a obtenu son diplôme de Doctorat en mathématiques appliquées de l'Ecole Centrale Paris sur la période 2012 - 2013. Enfin, depuis 2007, il donne des cours de façon régulière à l’université Paris XI.

Abstract : In decision making problems where uncertainty plays a key role and decisions have to be taken prior to observing uncertainty, chance constraints are a strong modelling tool for defining safety of decisions. These constraints request that a random inequality system depending on a decision vector has to be satisfied with a high probability. The characteristics of the feasible set of such chance constraints depend on the constraint mapping of the random inequality system, the underlying law of uncertainty and the probability level. One characteristic of particular interest is convexity. Convexity can be shown under fairly general conditions on the underlying law of uncertainty and on the constraint mapping, regardless of the probability-level. In some situations convexity can only be shown when the probability-level is high enough. This is defined as eventual convexity. In this talk we will investigate further how eventual convexity can be assured for specially structured chance constraints. We will also discuss briefly how specially designed bundle methods can be a method of choice for optimizing under probabilistic constraints. Finally we will show how these 
problems arise in cascaded reservoir management and discuss some obtained numerical results.


Marc Schoenauer (INRIA) "Optimisation stochastique continue : adaptation automatique, invariances et modèles de substitution"

Cliquez ici pour télécharger la présentation de la conférence.

Marc Schoenauer is Principled Senior Researcher (Directeur de Recherche 1ère classe) with INRIA, the French National Institute for Research in Computer Science and Control. He graduated at Ecole Normale Supèrieure in Paris, and obtained a PhD in Numerical Analysis at Université Paris 6 in 1980. From 1980 until Aug. 2001 he has been full time researcher with CNRS (the French National Research Center), working at CMAP (the Applied Maths Laboratory) at Ecole Polytechnique. He then joined INRIA, and later founded the TAO team at INRIA Saclay in September 2003 together with Michèle Sebag.

Résumé : Le succès de la méthode d'optimisation stochastique "Covariance Matrix Adaptation" est en grande partie du aux invariances inhérentes à la méthode: invariance par transformation monotone de la fonction objectif, du fait qu'elle utilise uniquement des comparaisons entre solutions, et invariance par changement de coordonnées du fait de l'adaptation dynamique du système de coordonnées local dans lequel elle travaille. Mais ces invariances ne sont en général pas préservées lorsque des modèles de substitution doivent être utilisés du fait du coût de calcul de la vraie fonction objectif. Nous présenterons des mécanismes de construction et de mise à jour dynamique automatique préservant ces invariances, et donc les performances de l'algorithme sur un vaste classe de fonctions. 


Maillages et Applications IndustrieLLES

Jean-Marc Daniel (IFPEN) "Besoins pour le maillage des milieux géologiques complexes"

Besoins pour le maillage des milieux géologiques complexes, par Jean-Marc Daniel (IFPEN) from Contact FSMP on Vimeo.

Cliquez ici pour télécharger la présentation de la conférence.

Jean-Marc DANIEL est titulaire d'un doctorat en sciences de l'Université Pierre et Marie Curie. Il est aujourd'hui Directeur Expert IFPEN adjoint de la direction Géosciences. Ses domaines d'expertise sont plus particulièrement la Géologie Structurale, la Géomodélisation et la Géomécanique. Il dirige également un projet sur la modélisation hydromécanique des failles.

RésuméLes phénomènes géologiques sont complexes à modéliser car ils font intervenir très souvent des couplages forts entre phénomènes physiques élémentaires sur des sytèmes de grandes tailles. L'optimisation de la simulation de ces processus passe toujours par des efforts de recherche sur le couple méthode numérique perfomantes maillage adapté. L'objectif de cette présentation est dans un premier temps d'illustrer les particularités des objets géologiques en terme de géométrie des hétérogénéités qu'il est nécessaire de capturer et de physique des processus à simuler. Dans un deuxième temps quelques exemples de points durs empruntés à la simulation de bassin et de réservoir seront discutés. Quelques suggestions de pistes à explorer seront discutées pour conclure.

Paul-Louis George (INRIA) et Houman Borouchaki (UTT-INRIA) "Panorama des méthodes génériques de génération de maillages et méthodes spécifiques de maillage en géosciences"

Mesh generation for numerical simulations, par Paul-Louis George (INRIA) from Contact FSMP on Vimeo.

Maillage et méthodes spécifiques en géoscience, par Houman Borouchaki (UTT-INRIA) from Contact FSMP on Vimeo.

Cliquez ici pour télécharger la présentation de la conférence de Paul-Louis George.
Cliquez ici pour télécharger la présentation de Houman Borouchaki. 

Paul-Louis George a obtenu sa thèse à l'UPMC, il est depuis lors chercheur à l'Inria et est responsabe de l’équipe-projet GAMMA3 depuis plusieurs années.
Houman Borouchaki a obtenu son doctorat de mathématiques à l'Université Paris Diderot et son habilitation à diriger des recherche en mathématiques à l'UPMC (1997). Il est professeur à l'Université de technologie de Troyes (depuis 1998). Directeur du Laboratoire des Systèmes Mécaniques et d'Ingénierie Simultanée à l'UTT (de 2005 à 2008), il est aujourd'hui responsable de l'équipe de recherche GAMMA3 à l'UTT (depuis 2009).

Résumé : Après un rappel sur la notion du maillage, nous présentons des méthodologies générales de construction. 
Ces mêmes méthodologies sont appliquées pour la génération de maillages adaptées pour des géométries fixes, mobiles ou déformables. Quelques technologies spécifiques liées utiles en géoscience sont aussi introduites. Enfin, nous concluons par un survol rapide de quelques logiciels développés via ces méthodologies.

Jean-François Remacle (UCL-Rice University) "An indirect approach to hex mesh generation"


An indirect approach to hex mesh generation, par Jean-François Remacle (UCL-Rice University) from Contact FSMP on Vimeo.

Cliquez ici pour télécharger la présentation de la conférence.

Jean-François Remacle est Professeur Ordinaire (Full Professor) à l'Université catholique de Louvain et Professeur à l'Université Rice (TX/US). Il a obtenu un Doctorat en Sciences de l'Ingénieur à l'Université de Liège en 1997.

Abstract : The aim of this seminar is to present a method that enables to build 3D finite element meshes only composed of hexahedra. The problem of three dimensional mesh generation is a very hard problem, probably ill posed. After 15 years of continuous efforts, we are now able to generate meshes made of triangles (2D) and tetrahedra in most of the cases (> 99, 9%!). The problem of direct generation of hexaedral meshes is very hard, maybe too hard. Our approach is indirect: it consist in recombining tetrahedra into hexahedra. While the 2D version of problem can be solved in polynomial time, the 3D problem is NP-hard. We present some simple heuristics that allow to achieve hex-dominant meshes with about 90% of hexahedra in volume. Then, full hex meshes can be constructed by subdivision. Some computational ex- amples will be done with a spectral finite element code developped in Pr. T. Warburton’s group. 

References

[1] Baudouin, T. C., Remacle, J. F., Marchandise, E., Henrotte, F., Geuzaine, C. , A frontal approach to hex-dominant mesh generation, Advanced Modeling and Simulation in Engineering Sciences, 1(1), 1–30. (2014). 

Thierry Coupez (Ecole Centrale de Nantes) "Frontières implicites et adaptation anisotrope de maillage"

Frontières implicites et adaptation anisotrope de maillage, par Thierry Coupez (Ecole Centrale de Nantes) from Contact FSMP on Vimeo.

Cliquez ici pour télécharger la présentation de la conférence.

Titulaire d’un DEA d’analyse numérique (UPMC), d’une thèse de l’Ecole des Mines de Paris, et d’une habilitation à diriger les recherches de l’Université de Nice, Thierry Coupez est aujourd’hui professeur de l’Ecole des Mines de Paris détaché à l’Ecole Centrale de Nantes. Il a dirigé l’équipe CIM (Calcul Intensif en mecanique) au CEMEF (laboratoire MinesParistech) jusqu'en 2013, et fut directeur adjoint de ce laboratoire jusqu'en 2011. Il est encore au conseil scientifique de l’Université de Nice au titre de membre extérieur. Aujourd’hui, il est le directeur de l’ICI (Institut de Calcul Intensif), laboratoire nouvellement crée à l’Ecole Centrale de Nantes.

Abstract : Complex geometries can be embedded in a mesh by using an implicit boundary representation as in the level set method or any equivalent scalar field. Such approaches enable a much more flexible way for building complex multi-domain simulations than classical body-fitted techniques that required to constraint boundaries and interfaces into the volume mesh. However, the geometrical accuracy of implicit representations depends on the fineness of mesh. In fact, the implicit function used to define the geometry must be interpolated onto the mesh and a lack of geometrical accuracy is only due to the interpolation error of the exact solution. Therefore, we propose to use the anisotropic mesh adaptation machinery, based on the interpolation error estimate, to improve the implicit boundary approach, showing that it can compete in accuracy with body fitted technique.

Pascal Tremblay (Michelin) "Les défis de la transition du maillage hexaédrique vers tétraédrique pour des applications industrielles"

Titulaire d'un doctorat en génie mécanique (Université d'Ottawa - Ottawa, ON, Canada) depuis 2008 , Pascal Tremblay est aujourd'hui Ingénieur R&D en Mécanique Numérique à Michelin, au Centre de technologie de Ladoux.

Résumé : Cet exposé compare les avantages et inconvénients des éléments hexaédriques et tétraédriques pour la simulation par éléments finis de la mécanique des solides dans un contexte industriel. Les pratiques particulières liées à la génération de maillage pour le pneu, qui contient plusieurs couches minces de matériaux, sont brièvement présentées ainsi que les défis engendrés pour le maillage tétraédrique. 

Bilan de la session

Bilan session Maillages et Applications Industrielles from Contact FSMP on Vimeo.



Visualisation

Sébastien Schneider (IFPEN) "Courte introduction à la visualisation pour les géosciences à IFPEN"


Courte introduction à la visualisation pour les géosciences à IFPEN, par Sébastien Schneider (IFPEN) from Contact FSMP on Vimeo.

Cliquez ici pour télécharger la présentation de la conférence.

Maitrise d’Informatique à l’université de Nice-Sophia Antipolis en 1997, DEA d’Informatique Graphique à l’université de Saint-Etienne en 1999 et thèse en informatique appliquée à la modélisation géométrique du sous-sol en 2002. Je travaille depuis 2003 à IFP EN et je suis actuellement architecte logiciel, responsable de projet plateforme logiciel R&D pour les géosciences : OpenFlow.

Résumé : Depuis plusieurs décennies IFP Energies nouvelles développe des logiciels dans le domaine des géosciences qui offrent des fonctionnalités de visualisation avancées. Les besoins dans ce domaine sont de plus en plus important notamment liés à la croissance du volume de données à la fois d’acquisition mais aussi de simulation. Cette présentation illustrera quelques une de ces fonctionnalités ainsi que les évolutions pressenties pour les années à venir. 

Julien Jomier (Kitware) "Scientific Visualization with Open-Source Tools"

Scientific Visualization with Open-Source Tools, par Julien Jomier (Kitware) from Contact FSMP on Vimeo.

Cliquez ici pour télécharger la présentation de la conférence.

Julien Jomier is currently directing Kitware's European subsidiary in Lyon, France (Kitware SAS), where he focuses on European business development. Julien received both his B.S. and M.S in Electrical Engineering and Information Processing in 2002 from the ESCPE-Lyon (France) and an M.S. in Computer Science from The University of North Carolina at Chapel Hill (UNC) in 2003. He worked on a variety of projects in the areas of parallel and distributed computing, mobile computing, image processing and visualization. Prior to joining Kitware, Mr. Jomier was a Faculty Research Lecturer of Radiology at the University of North Carolina

Abstract : Two main open-source visualization tools will be presented: the Visualization Toolkit (VTK) and ParaView with a focus on their capabilities and features. Some examples of application and integration will also be given. 

Emilie Chouzenoux (UPEM) "A Random block-coordinate primal-dual proximal algorithm with application to 3D mesh denoising"

A Random block-coordinate primal-dual proximal algorithm with application to 3D mesh denoising, par Emilie Chouzenoux (UPEM) from Contact FSMP on Vimeo.

Cliquez ici pour télécharger la présentation de la conférence.

Emilie Chouzenoux a obtenu le diplôme d'ingénieur de l'Ecole Centrale de Nantes (ECN), ainsi que le diplôme de Master Recherche en traitement du signal et des images de l'ECN en 2007. Elle a obtenu le doctorat de traitement du signal et des images de l'Institut de Recherche en Communications et Cybernétique de Nantes (IRCCyN, UMR-CNRS 6597) en 2010. Elle a ensuite été A.T.E.R. à l'Université Paris-Est Marne-La-Vallée. Depuis septembre 2011, elle est maître de conférences à l'Université Paris-Est Marne-La-Vallée. Elle effectue son activité de recherche au Laboratoire d'Informatique Gaspard Monge (LIGM, UMR-CNRS 8049). Ses thèmes de recherche concernent les méthodes d'optimisation convexe et non-convexe pour la résolution de problèmes inverses de grande taille du traitement du signal et des images.

Abstract : Many application fields, such as machine learning, computer vision and inverse problems, require the treatment of very large-scale data sets represented on a graph. In this talk, I will present a novel random block-coordinate primal-dual proximal algorithm which allows us to solve a wide array of convex variational problems arising in graph signal processing. The good performance of the method will be illustrated on a 3D mesh denoising application. 

Jean-Daniel Fekete (INRIA) "Visualisation de réseaux par matrices d'adjacence"

Visualisation de réseaux par matrices d'adjacence, par Jean-Daniel Fekete (INRIA) from Contact FSMP on Vimeo.

Cliquez ici pour télécharger la présentation de la conférence.

Jean-Daniel Fekete est directeur de recherche INRIA (DR1). Il a reçu sa thèse de l'Université Paris-Sud en 1996, il a rejoint l'équipe graphique de l'Ecole des Mines de Nantes en 1997 dont il a pris la responsabilité de 2000 à 2001. Le Human-Computer Interaction Laboratory de l'Université du Maryland aux USA l'a invité en 2001-2002. Puis il a été recruté par l'INRIA en 2002 en tant que chercheur confirmé (CR1) et est passé Directeur de recherche en 2006. Il est actuellement le responsable de l'équipe projet AVIZ qu'il a créé en 2007.

Résumé : Les graphes permettent de modéliser un grand nombre de phénomènes réels, tels les interactions entre personnes (réseaux sociaux) ou les relations entre des bibliothèques de logiciels. Les méthodes d'analyse de graphes permettent de trouver des propriétés intéressantes sur ces réseaux réels. En particulier, la visualisation de graphes permet de comprendre visuellement la structure des ces graphes. Traditionnellement, ces graphes sont visualisés par la représentation dite de noeuds et liens, où un sommet devient un point et une arête devient une ligne. Cependant, cette représentation très populaire ne permet pas de visualiser des graphes denses. La visualisation de graphe par matrice d'adjacence permet de visualiser des graphes denses, mais nécessite d'ordonner les sommets afin de faire apparaître des structures visuelles intéressantes et utiles. Nous décrirons les méthodes de linéarisation de graphes vous visualiser ces matrices d'adjacence et faciliter l'interprétation de graphes complexes. 

Marc Antonini (CNRS) "Compression et visualisation de données 3D massives"

Compression et visualisation de données 3D massives, par Marc Antonini (CNRS) from Contact FSMP on Vimeo.

Cliquez ici pour télécharger la présentation de la conférence.

Marc ANTONINI a obtenu le titre de Docteur de l'Université de Nice-Sophia Antipolis (France) en 1991 et l'Habilitation à Diriger des Recherches (HDR) de l'Université de Nice-Sophia Antipolis (France) en 2003. Il a effectué deux années post-doctorales au Centre Nationale d'Etudes Spatiales (CNES) à Toulouse en 1991 et 1992 et a intégré le CNRS en 1993 au laboratoire I3S, UMR 7271 de l’Université de Nice-Sophia Antipolis et du CNRS. Il est Directeur de Recherche au CNRS depuis 2004.
Il est responsable scientifique du projet MediaCoding au laboratoire I3S composé de 5 chercheurs permanents, 5 doctorants et 3 ingénieurs R&D.
Marc Antonini est co-auteur de plus de 200 publications, 7 chapitres de livres et de plus de 10 brevets. Ses activités de recherche couvrent le codage d'images et de vidéos ainsi que le traitement géométrique et la compression de maillages surfaciques statiques, d'animations 3D et d'hologrammes numériques. Il s'intéresse aussi à l'analyse de l'information contenue par le code neural dans le système visuel, avec comme objectif le développement de systèmes de compression bio-inspirés pour l'image et la vidéo.
Il a dirigé 26 thèses dont 5 actuellement en cours.

Résumé : Le développement spectaculaire des techniques d'acquisition de données 3D permet aujourd'hui l'acquisition de maillages surfaciques de plus en plus résolus. Le problème se pose lorsqu'il s'agit de manipuler, traiter et visualiser ces très grands volumes de données. En effet, la visualisation de l'objet par exemple, ou bien sa compression, nécessite son chargement en totalité dans la mémoire avant son traitement ce qui n'est pas possible lorsque les tailles des données sont énormes (plusieurs dizaines de Giga octets voire Tera octets). Or, dans le contexte de l'imagerie à haute résolution le goulot principal lors de l'affichage se situe au niveau du transfert des données entre la RAM du CPU et la VRAM de la carte graphique. Le temps d'affichage sera donc principalement conditionné aujourd'hui par la vitesse du bus de transmission entre CPU et GPU et non pas par la puissance de calcul de la carte graphique (plusieurs Tera Flops). Il est donc nécessaire de faire transiter sur les bus des données comprimées et de les décomprimer au niveau de la carte graphique en bénéficiant de la puissance de calcul du GPU.
Dans ce contexte, nous proposerons lors de cette présentation un système de compression/visualisation de maillages surfaciques denses basé sur l'analyse multi-résolution par ondelettes. Cette approche offre la possibilité d'afficher dans des temps extrêmement rapides des objets 3D très résolus (plusieurs millions de polygones) tout en optimisant la qualité de l'objet visualisé par rapport aux différents paramètres d'affichage. Ces travaux 
seront illustrés par des données générées par la société Cintoo 3D, spin-off de l’Université de Nice-Sophia Antipolis et du CNRS. 

Bilan de la session 
 

Bilan session Visualisation from Contact FSMP on Vimeo.