Le séminaire de l’équipe Labo est sous la responsabilité de Michel Raibaut.
Options : Voir par date décroissante. Masquer les résumés.
Par année : 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010, 2011, 2012, 2013, 2014, 2015, 2016, 2017, 2018.

Jeudi 13 novembre 2003 à 17h Y. Yomdin (Wiezmann Institute),
Ridge detection, Differential Geometry, and stability of high-order Image Processing.

Résumé : (Masquer les résumés)
Ridges are bright lines on a dark background (or dark lines on a bright background). An accurate mathematical definition of ridges presents some difficulties (arising also in other similar problems):
there are several intuitively justified definitions which are not equivalent mathematically and which lead to quite different results in practice.
We discuss a "differential-geometric" definition of ridges and compare it with some other possible definitions. Then we describe a stable high order numerical algorithm for ridge detection.

Jeudi 22 janvier 2004 à 17h Prof. Dr. Jens Struckmeier (Université de Hambourg),
A Mathematical Investigation of a Dynamical Model for the Growth and Size Distribution of Multiple Metastatic Tumors.

Résumé : (Masquer les résumés)
Recently, Iwata, Kawasaki and Shigesada proposed a dynamical model for the growth and size distribution of multiple metastatic tumors [J. theor. Biol., 203, 177--186 (2000)], which is based on von Foerster’s equation from population dynamics. In the seminar we reformulate the model from a mathematical point of view and give an existence results using the method of characteristics and standard theory for linear integral equations. A dimensionless form of the model shows that it contains some interesting short and large-time asymptotics.

Jeudi 26 février 2004 à 16h30 Laurent Vuillon (LAMA, Université de Savoie),
Problemes discrets: tomographie discrete et pavages.

Résumé : (Masquer les résumés)
Cet exposé sera constitué de deux parties portant sur des problèmes de mathématiques discrètes et utilisant des techniques de combinatoire des mots, de géométrie discrète et de pavages du plan.
Dans la première partie, nous présenterons une introduction aux techniques de la tomographie discrète. Ce domaine a pour objet la reconstruction de matrice à valeurs dans {0,1} connaissant un petit nombre de projections (les projections ou contraintes tomographiques sont des vecteurs donnant par exemple le nombre de 1 sur chaque ligne et le nombre de 1 sur chaque colonne). Nous présenterons l’algorithme de Ryser pour la reconstruction de matrices connaissant les projections verticale et horizontale, puis la reconstruction de polyominos horizontalement et verticalement convexes avec contraintes tomographiques. Les méthodes utilisées font appel à la géométrie discrète mais aussi à des réductions à 2-SAT. Enfin, nous aborderons des résultats récents sur la reconstruction de matrices avec périodicité et contraintes tomographiques.
Dans la deuxième partie, nous montrerons que la complexité d’un mot de coupures u dans un pavage régulier par un polyomino Q est égale à Pn(u)=(p+q-1)n +1, pour tout n > 0 où Pn(u) compte le nombre de facteurs distincts de longueur n du mot infini u et où le mot de contour du polyomino Q est donné par 2p segments horizontaux et 2q segments verticaux. Nous reviendrons dans cet exposé sur le théorème de Beauquier-Nivat donnant une caractérisation par mots de contour des polyominos qui pavent le plan par translations.

Jeudi 22 avril 2004 à 17h30 Yann Gérard (Université de Clermont 1),
Reconstruction de surfaces.

Résumé : (Masquer les résumés)
Etant donné un ensemble fini de points, le problème que nous considérerons consiste à construire une surface qui l’approche. Différents types de surfaces peuvent etre considérées: des surfaces polyhédrales possédant différents types de convexité ou des surfaces equipotentielles parmi lesquelles on trouve les surfaces algebriques (le potentiel est donné par un polynome). C’est sur le problème de la reconstruction de surfaces algebriques que nous focaliserons nos efforts. Nous ferons le lien entre ce problème et la notion de couche digitale développée dans le cadre de la géométrie discrète. Nous pourrons ainsi donner un aperçu des solutions développées dans ce domaine, et de leurs nombreuses applications.

Jeudi 04 novembre 2004 à 16h30 Jean-Pierre Françoise (Université Paris 6),
Modélisation des rythmes du vivant, oscillations et synchronisation.

Résumé : (Masquer les résumés)
On considère un modèle qui décrit la synchronisation de l’activité électrique des cellules du noeud sinusal et la formation du ryhtme cardiaque. L’objet de l’exposé est de présenter les outils mathématiques qui sont nécessaires à cette modélisation puis de faire le point sur ce qui est connu et ce qui reste à développer dans les domaines mathématiques concernés (bifurcation des cycles limites, accrochage des phases, systèmes isochrones et leur perturbation, synchronisation).

Jeudi 07 avril 2005 à 16h30 Ilia Itenberg (Université de Strasbourg),
Géométrie tropicale et dénombrement de courbes rationnelles réelles.

Résumé : (Masquer les résumés)
Le but de l’exposé est de faire une introduction à la géométrie tropicale et de présenter ses applications à la géométrie énumérative réelle et complexe.
La géométrie tropicale est un domaine relativement nouveau de mathématiques qui a connu un progrès spectaculaire durant les cinq dernières années. L’apparition de la géométrie tropicale était motivée par ses liens multiples et profonds avec plusieurs branches de mathématiques. Une relation importante entre le monde complexe et le monde tropical est donnée par le théorème de correspondance de Mikhalkin. Ce théorème et la découverte par J.-Y. Welschinger d’un analogue réel des invariants de Gromov-Witten produisent des nouveaux résultats concernant le dénombrement de courbes rationnelles réelles.

Jeudi 09 mars 2006 à 14h30 Luc Frappat (LAPTH, Annecy),
Approches algébriques dans les systèmes intégrables

Jeudi 12 octobre 2006 à 14h Dorin Bucur (Université de Metz),
Existe-t-il toujours une forme optimale ?

Résumé : (Masquer les résumés)
Attention: l'exposé aura lieu dans l'amphithéâtre Nivolet

Jeudi 09 novembre 2006 à 14h Elisabeth Rouy (Ecole Centrale de Lyon),
Les solutions de viscosité dans la résolution de problèmes non linéaires.

Jeudi 18 janvier 2007 à 17h Frédéric Chazal (Université de Bourgogne et INRIA),
Qu'est-ce que la géométrie d'un nuage de points ? Aspects théoriques et algorithmiques

Résumé : (Masquer les résumés)
L'estimation et l'approximation de grandeurs topologiques ou géométriques associées à des formes dont on ne connait qu'une approximation posent des problèmes pratiques et théoriques délicats en calcul géométrique. Ces problèmes ont été largement étudiés depuis plusieurs années dans le cas de la reconstruction d'hypersurfaces lisses dans R^n : à partir d'un nuage de points mesurés sur une forme lisse, on souhaite 'reconstruire' la surface de cette forme en garantissant que le résultat produit possède la même topologie que celle de la forme échantillonnée. Il existe bon nombre de résultats et d'algorithmes satisfaisant permettant de répondre a ce problème dans le cas particulier des surfaces dans R^3.Cependant, les résultats et les méthodes actuelles possèdent un double inconvénient. Ils ne se généralisent pas à des objets non lisses et conduisent à des algorithmes inefficaces en dimension supérieure à 3. Le développement récents des outils de mesure et de simulation nécessite de mettre au point des techniques mathématiques et algorithmiques permettant d'extraire l'information topologique et géométrique de nuages de points issus d'objets non lisses dans des espaces de toutes dimensions. Dans cet exposé, nous présenterons quelques résultats récents dans cette voie. Nous verrons en particulier, que dans le cas de l'approximation d'objets non lisses, il apparait des ``phenomènes d'échelle'' faisant apparaitre différentes topologies à différentes échelles.

Jeudi 22 novembre 2007 à 16h30 Denis SERRE (ENS Lyon),
Polynômes hyperboliques

Jeudi 06 mars 2008 à 13h50 François Hamel et Serguei Nazarov (Universités de Marseille et de St Petersburg),
Une demi-journée en la mémoire de Thomas Lachand-Robert

Résumé : (Masquer les résumés)
L'équipe EDP organise une demi-journée en la mémoire de Thomas Lachand-Robert (18/12/1966--23/02/2006).

Programme:

-- 13h50-14h00. ``Petite introduction''.

-- 14h00-15h00. François Hamel (Université de Marseille).

``Inégalités de réarrangement et optimisation de formes''.

-- 15h00-15h30. Pôt en la mémoire de Thomas Lachand-Robert.

-- 15h30-16h30. Serguei Nazarov (St Petersburg).

``A criterion of the continuous spectrum for elliptic systems on peak-shaped domains``.

Jeudi 10 avril 2008 à 14h Guy Métivier (Bordeaux 1),
Un parcours initiatique en optique, optique géométrique et tissus

Résumé : (Masquer les résumés)
TBA

Jeudi 29 mai 2008 à 14h, Chambéry André Hirschowitz (UNSA),
Enseigner les preuves avec Coqweb

Résumé : (Masquer les résumés)
Faut pas le dire, mais l'enseignement supérieur des sciences (à Nice?), ça marche pas top (taper Objectif70 dans Google). Faut pas le dire, mais nous, les universitaires (niçois?), on n'a pas trop le temps de s'occuper de ce problème, on est débordés. Et les autres, ministres et recteurs, gare à eux s'ils s'avisaient de se méler de nos affaires. Par exemple on ne cherche pas trop à enseigner la rigueur autrement que par la méthode dite de Léo Lacroix (``faites comme moi''), qui a largement fait ses réfutations. Ceux qui essaient de faire autrement, forcément, ils y arrivent pas du premier coup, et ils se font casser bien avant d'y arriver. Coqweb (à taper dans Google pour voir) propose une nouvelle méthode. C'est une interface web pour Coq, principalement développée par Loïc Pottier pour l’enseignement. Il permet aux enseignants de proposer des énoncés sous une forme suffisamment familière. Les étudiants sont invités à démontrer ces énoncés essentiellement en cliquant. Des indications peuvent être données en langage naturel, et dans ce cas, l’interface vérifie que l’étudiant a bien compris l’indication. On dira un peu de ce qu'il ne faut pas dire, puis on racontera comment Coqweb marche bien et ce qu'on a fait avec.

Résumé disponible sous forme de fichier PDF.

Jeudi 25 juin 2009 à 14h Philippe Briand (LAMA, Université de Savoie),
Équations différentielles stochastiques rétrogrades et applications

Jeudi 08 octobre 2009 à 14h Guillaume Theyssier (LAMA),
Introduction à la calculabilité et la complexité

Résumé : (Masquer les résumés)
Les théories de la calculabilité (que peut-on calculer ?) et de la complexité algorithmique (quelle est la difficulté intrinsèque d'un problème calculable ?) sont deux piliers de la science informatique. L'objectif de cet exposé est de donner un aperçu des concepts, des principaux résultats et des grands problèmes ouverts de ces théories. Selon le temps, nous parlerons de fonctions récursives, d'ensembles diophantiens, de pavages du plan, d'applications affines par morceaux, d'identités polynomiales, etc, avec le secret espoir de convaincre l'auditoire que la notion de calcul est avant tout protéiforme et peut s'immiscer dans de nombreux objets mathématiques ``classiques''.

Jeudi 05 novembre 2009 à 14h, Iseran, salle 121 Nicolas Burq (Orsay),
Equations aux dérivées partielles à données aléatoires : autour d'un théorème de Paley-Zygmund

Résumé : (Masquer les résumés)
En 1932, Paley et Zygmund démontrent que les séries trigonométriques aléatoires sur le tore sont presque surement plus régulières que ce a quoi on s'attendrait. Ce type de résultat a par la suite été étudié par de nombreux auteurs dans un contexte d'analyse harmonique (Pisier et Kahane notamment). Curieusement, pendant longtemps, les spécialistes des EDP ne se sont pas interessés à ce type de questions. L'objet de cet exposé est précisement de montrer quelques applications des idees directement inspirées de Paley et Zygmund, au contexte des EDP. Plus précisément, on montrera que pour certaines équations des ondes et de Schrodinger, pour des données initiales aléatoires, la situation est bien meilleure en termes d'existence et de comportement en temps longs, que pour des données initiales fixées. Il s'agit de travaux en collaboration avec N. Tzvetkov (Cergy) et L. Thomann (Nantes).

Jeudi 10 décembre 2009 à 13h30 Olivier Le Gal (LAMA),
Introduction à la géométrie modérée

Résumé : (Masquer les résumés)
La première difficulté en géométrie réelle consiste à définir un cadre de travail. On ne peut en effet se restreindre à l'étude d'objets lisses (ce serait exclure l'ensemble pourtant simple formé par l'union de deux droites concourantes), mais les objets singuliers peuvent s'avérer trop compliqués pour être étudiés avec les outils de géométrie différentielle classiques (tout fermé de Rn est l'intersection de deux variétés lisses). Nous verrons comment les structures o-minimales répondent à cette problématique, en évitant les « monstres », tout en gardant un niveau de généralité élevé. Nous parlerons ainsi, selon ce que le temps permet, de la géométrie modérée qu'elles définissent, des pathologies qu'elles autorisent, des liens qu'elles entretiennent avec la théorie des modèles, et des questions qui s'y posent.

Lundi 03 mai 2010 à 09h30, Dans le cadre de la fédération LAMA-LAPTH Krzysztof Kurdyka (LAMA),
Polynômes hyperboliques et théorie des perturbations analytiques à plusieurs paramètres

Résumé : (Masquer les résumés)
Let $P(x,z)= z^d +sum_{i=1}^{d}a_i(x)z^{d-i}$ be a polynomial, where $a_i$ are real analytic functions in an open subset $U$ of $R^n$. If for any $x in U$ the polynomial $zmapsto P(x,z)$ has only real roots, then we can write those roots as locally lipschitz functions of $x$. Moreover, there exists a modification (a locally finite composition of blowing-ups with smooth centers) $sigma : W to U$ such that the roots of the corresponding polynomial $tilde P(w,z) =P(sigma (w),z),,win W $, can be written locally as analytic functions of $w$. Let $A(x), , xin U$ be an analytic family of symmetric matrices, where $U$ is open in $R^n$. Then there exists a modification $sigma : W to U$, such the corresponding family $tilde A(w) =A(sigma(w))$ can be locally diagonalized analytically (i.e. we can choose locally a basis of eigenvectors in an analytic way). This generalizes the Rellich's well known theorem (1937) for one parameter families. Similarly for an analytic family $A(x), , xin U$ of antisymmetric matrices there exits a modification $sigma$ such that we can find locally a basis of proper subspaces in an analytic way.

Lundi 03 mai 2010 à 10h30, Dans le cadre de la fédération LAMA-LAPTH Claude Roger (Lyon),
Fibrés et classes caractéristiques en physique

Résumé : (Masquer les résumés)
Nous montrerons le rôle des fibrés vectoriels en physique par l'intermédiaire des théories de jauge, et comment des classes caractéristique peuvent intervenir, via des termes topologiques dans les Lagrangiens. Pour une théorie de jauge abélienne, nous verrons comment les monopôles magnétiques et l'effet Bohm-Aharonov peuvent s'interprèter comme une première classe de Chern, et pour les théories non abéliennes, le nombre d'instanton est une deuxième classe de Chern (dans la version euclidienne de la théorie de Yang et Mills).

Jeudi 04 novembre 2010 à 14h Bertrand Maury (Laboratoire de mathématiques, Université Paris-Sud, Orsay),
Modélisation de mouvements de foules

Résumé : (Masquer les résumés)
Nous nous intéressons à une classe de modèles de mouvements de foules en situation d’évacuation d’urgence basés sur les considérations suivantes : chaque personne souhaite optimiser sa propre trajectoire (en clair : sortir au plus vite du bâtiment), mais, dans le cas de situations congestionnées, le mou- vement est contraint par le simple fait que deux personnes ne peuvent pas être au même endroit au même moment. Nous présenterons une mise en équation microscopique de ces principes, où chaque personne est identifée à un disque rigide, et la vitesse effective instantanée est la projection du déplacement souhaité sur l’ensemble des vitesses admissibles, qui ne conduisent pas à un chevauchement des individus. Nous montrons que ce modèle peut s’interpréter comme un flot-gradient sur l’espace des degrés de liberté (pour une fonctionnelle d’insatisfaction définie comme la somme des insatisfactions individuelles). Nous proposerons ensuite une version macroscopique du modèle : la population est alors décrite par une densité assujettie à rester inférieure à une valeur fixée. La régularité de la vitesse effective n’étant pas contrôlée, les résultats classiques sur l’équation de transport d’une densité ne sont pas applicables. Nous montrerons comment le cadre de la métrique de Wasserstein sur les mesures (distance entre mesures associée au transport optimal) permet de redonner à ce modèle une structure de flot- gradient, de montrer l’existence d’une solution et suggère des pistes pour la simulation numérique de tels phénomènes.

Lundi 29 novembre 2010 à 14h Mouhammad Said (LIMD),
Soutenance de thèse

Mardi 30 novembre 2010 à 14h Matthieu Bonnivard (LAMA, Université de Savoie),
Thèse

Vendredi 03 décembre 2010 à 14h Denys Dutykh (LAMA, Université de Savoie),
Modélisation mathématique pour l'environnement

Résumé : (Masquer les résumés)
Cet exposé est consacré à la modélisation mathématique de quelques problèmes environnementaux, couvre des thématiques allant des vagues jusqu'aux avalanches de neige poudreuse et traite de différents aspects de la modélisation des tsunamis. Nous étudions toute la gamme des processus physiques de la génération, transformations d'énergie, propagation jusqu'à l'inondation des côtes. Nous verrons aussi différents aspects de la simulation numérique et de la modélisation d'inondation. Ces questions sont traitées par différentes approches: les équations de Saint-Venant, les équations de type de Boussinesq et le système de Navier-Stokes bi-fluide. Nous nous intéressons aussi à deux problèmes relevant principalement des écoulements multi-fluides, en particulier la justification formelle du modèle bifluide à quatre équations proposé avant pour la modélisation des écoulements aérés. Quelques résultats numériques présentés peuvent s'appliquer, par exemple, à la simulation numérique du déferlement. Nous proposons aussi un nouveau modèle pour les avalanches de neige poudreuse. Ce système est dérivé du Navier-Stokes bifluide classique et possède de bonnes propriétés qualitatives. Les simulations numériques d'interaction d'une avalanche avec obstacle sont présentées.

Mardi 07 décembre 2010 à 14h Laurent Boyer (LAMA (LIMD)),
Date prévue de soutenance de thèse

Jeudi 16 décembre 2010 à 14h Krzysztof Worytkiewicz (LAMA, Université de Savoie),
L'algebre homotopique des omega-categories

Résumé : (Masquer les résumés)
Cet exposé est consacré à une théorie de l'homotopie des infini-catégories strictes. Cette théorie est présentée par une structure de modèles de Quillen, construite à partir d'un ensemble de cofibrations génératrices et d'une classe d'équivalences faibles. Je commencerai par des généralites sur l'algèbre homotopique pour ensuite préciser la construction de la structure de modèles en question. Finalement j'esquisserai une construction de cohomologie non-abelienne où les inifini-categories strictes servent de coefficients.

Jeudi 16 décembre 2010 à 15h30 Georges Comte (LAMA, Université de Savoie),
La géométrie des singularités en différents contextes

Résumé : (Masquer les résumés)
J'expliquerai de façon élémentaire comment on peut établir des liens entre plusieurs points de vue (les points de vue différentiel, algébro-géométrique, métrique) sur l'étude des singularités, dans le contexte souple de la géométrie des ensembles définissables. Nous définirons d'abord ces notions et nous dirons ensuite en quoi et comment elles se correspondent.

Mardi 21 décembre 2010 à 14h Mohamed Dahi (LAMA, Université de Savoie),
Thèse

Jeudi 13 janvier 2011 à 14h Paul Milewski (University of Wisconsin, Madison),
Séminaire de la Fédération : The volcano effect in bacterial chemotaxis

Résumé : (Masquer les résumés)
Chemotaxis is the directed motion towards a chemical attractant. Many bacteria chemotax by swimming repeatedly in a randomly chosen direction and biasing their swim lengths according to whether their environment is improving in the current direction. At a macroscopic level this biased random walk has been modeled by the Keller-Segel (K-S) equations which are conservation laws that have a bacterial flux with a component proportional to the gradient of attractant concentration. The K-S equations predict that bacteria will aggregate at the maxima of the attractant concentration, but this is not always observed. For rapidly spatially-varying concentration gradients, the peak in bacterial concentration is some distance away, lying on a ring in two-dimensions. This is the ”volcano effect”. Our work, starting from a simplified biochemical description of each bacterium and then extracting population level models, shows how to bridge these two regimes (K-S and volcanic). The results are verified against stochastic simulations of virtual bacteria. We shall also discuss applications to the more complex chemotactic process where the bacteria are themselves producing the chemoattractant.

Jeudi 20 janvier 2011 à 14h, TLR Antoine DUCROS (Jussieu),
Nombres p-adiques et géométrie

Résumé : (Masquer les résumés)
Je commencerai par présenter, pour un nombre premier p fixé, le corps des nombres p-adiques, qui joue un rôle majeur en arithmétique. Il est muni d'une distance naturelle pour laquelle il est complet, mais totalement discontinu. Faire de la géométrie (algébrique ou analytique) intéressante sur ce type de corps est donc délicat, mais tout de même possible. Plusieurs stratégies existent pour contourner la totale discontinuité ; je présenterai celle de Berkovich, qui consiste à «rajouter beaucoup de points» aux espaces «naïfs» de départ de façon à les rendre connexes par arcs. J'illustrerai les constructions et définitions par des exemples simples, et montrerai une ou deux applications ce ce point de vue, par exemple aux systèmes dynamiques.

Jeudi 10 février 2011 à 14h Céline Labart (LAMA),
Modélisation en mathématiques financières

Résumé : (Masquer les résumés)
La modélisation des données boursières est à la base du calcul du prix des différents contrats proposés par les institutions financières. Je présenterai différents modèles mathématiques (modèle de Black-Scholes, modèles à volatilité locale et à volatilité stochastique) utilisés aujourd'hui ainsi que les différentes méthodes de pricing et couvertures d'option, en développant celle basée sur les équations différentielles stochastiques rétrogrades.

Mardi 15 février 2011 à 14h30, Salle TLR Etera Livine (Laboratoire de physique, ENS Lyon),
Introduction aux Modeles de Spinfoam pour la Gravite Quantique

Résumé : (Masquer les résumés)
Les modeles de spinfoam fournissent un formalisme d'integrale de chemin pour la gravite quantique. Ils permettent de definir des amplitudes de transition pour les etats de geometrie quantique de la loop quantum gravity - les spin networks. Ces amplitudes sont construites a partir de techniques de discretization de la relativite generale (Regge calculus) et de theorie de champs topologique (topological BF field theory). Je ferais une revue de tout ce formalisme. Puis je montrerais comment definir les modeles de spinfoam les plus prometteurs et expliquerais quelques unes des voies de recherche actuelles dans ce domaine; en particulier, comment extraire des predictions physiques de ces modeles et ce qu'il faudrait faire pour developper cette theorie.

Jeudi 17 février 2011 à 14h Xavier Provençal (LAMA),
Génération de plans discrets par substitutions généralisées.

Résumé : (Masquer les résumés)
La structure des droites discrètes en dimension deux, et par le fait même des mots Sturmiens, est maintenant quelque chose de bien connue. On observe de nombreuses propriétés arithmétiques (reliées, entre autre, aux fractions continues) et combinatoires (équilibre, récurrence, périodes, etc.). Cependant, lorsqu'on passe à la dimension trois... que reste-t-il de ces propriété? En générant des plans discrets à l'aide de substitutions généralisées obtenues par l'algorithme de Jacobi-Perron, on obtient une suite de ``morceaux de plans discrets'' présentant des similitudes avec les mots de Christoffel; ces derniers étant des facteurs particulièrement intéressants des mots Sturmiens.

Jeudi 24 mars 2011 à 14h Bruno Colbois (Université de Neuchatel),
Une approche métrique du spectre des hypersurfaces de l’espace euclidien

Résumé : (Masquer les résumés)
Dans cet exposé, je présenterai (sans entrer dans le détail des preuves) une approche métrique de l’étude du spectre du laplacien des hypersurfaces de l’espace euclidien. Le but est d’obtenir des estimées qui ne dépendent pas de la courbure, mais d’ingrédients géométriques plus globaux. Par exemple, l’un de ces résultats, obtenu avec E. Dryden et A. El Soufi permet, comme corollaire, d’estimer le spectre des hypersurfaces algébriques en fonction de leur degré. Un autre, obtenu avec A. El Soufi et A. Girouard, donne des estimations en fonction du rapport isopérimétrique associé à l’hypersurface. Je terminerai en donnant quelques questions ouvertes autour de cette problématique.

Jeudi 23 juin 2011 à 14h Laurent Vuillon (LAMA, Université de Savoie),
Pavages, polytopes et polycubes

Résumé : (Masquer les résumés)
Dans cet exposé, nous allons présenter des techniques pour paver le plan et l’espace par translation d’une tuile. Nous reviendrons sur le théorème de Beauquier-Nivat qui caractérise les polyominos qui pavent le plan par translation. Puis, nous tenterons de généraliser ce théorème en dimension 3. Nous montrerons alors les 5 polytopes convexes de Fedorov qui sont des modèles de pavages de l’espace. Nous nous attarderons sur le plus complexe de ces polytopes qui se révèle être un permutoèdre. Au travers d’exemples provenant de la théorie des pavages mais aussi de la cristallographie et de la métallurgie, nous verrons les différents pavages de l’espace et les réseaux associés. Nous focaliserons ensuite sur le pavage de l’espace avec des pièces non-convexes et des polycubes qui pavent l’espace avec plus de faces que les solides de Fedorov en ont. Puis, nous parlerons des pavages classiques apériodiques du plan et de l’espace (comme ceux de Penrose, Robinson, Wang, Danzer). Enfin, nous étudierons le problème ouvert du pavage apériodique de l’espace par des copies d’une seule tuile.

Mardi 12 juillet 2011 à 14h Julien Olivier (LAMA, Université de Savoie),
Thèse

Résumé : (Masquer les résumés)
Fluides vitreux, sutures craniofaciales, diffusion réactive : quelques contributions à l'étude de ces systèmes multi-échelles ou singuliers.

Jeudi 27 octobre 2011 à 14h30 Tim Porter (WIMCS, University of Bangor),
Théories homotopiques de champs quantiques, espaces classifiants et champs en groupoïdes

Résumé : (Masquer les résumés)
Les théories homotopiques de champs quantiques (HQFTs) ont été introduites par V. Turaev. Ils sont une forme de QFT dans lesquelles les variétés ont des structures supplémentaires. Dans cet exposé, je vais passer rapidement en revue quelques bases de la théorie des modules croisés utile plus tard, et introduire les TQFTs et HQFTs avec un espace de but, B. Après classification des cas simples, nous allons examiner le cas dans lequel B est l'espace classifiant d'un module croisé. S'il y a assez de temps, nous aborderons quelques interprétations en forme de gerbes etc. Plan : 1. Motivation 2. Rappels et exemples (simples) des modules croisés. 3. Théories topologiques de champs quantiques (TTCQs = TQFTs); 4. Théories homotopiques de champs quantiques (THCQs = HQFTs); 5. Résultats de Classification: (i) B = K(pi; 1), (ii) B = K(A; 2); 6. Applications formelles et HQFTs formelles : résultats généraux; 7. C-algebras croisées; 8. Complexes croisés, groupes simpliciaux et espaces classifiants; 9. C-fonctions formelles simpliciales et FHCobord(d; C); 10. C-fibrés combinatoires : allant vers les Gerbes.

Vendredi 09 décembre 2011 à 14h30 F. Bihan (LAMA),
Soutenance HDR - Topologie des variétés creuses

Mercredi 18 janvier 2012 à 15h Muhammad Humayoun (LAMA, LIMD),
Developing the System MathNat for Automatic Formalization of Mathematical texts

Résumé : (Masquer les résumés)
There is a wide gap between the language of mathematics and its formalized versions. The term ``language of mathematics'' or ``mathematical language'' refers to prose that the mathematician uses in authoring textbooks and publications. It mainly consists of natural language, symbolic expressions and notations. It is flexible, structured and semantically well-understood by mathematicians. However, it is very difficult to formalize it automatically. Some of the main reasons are: complex and rich linguistic features of natural language and its inherent ambiguity; intermixing of natural language with symbolic mathematics causing problems which are unique of its kind, and therefore, posing more ambiguity; and the possibility of containing reasoning gaps, which are hard to fill using the current state of art theorem provers (both automated and interactive). One way to work around this problem is to abandon the use of the language of mathematics. Therefore in current state of art of theorem proving, mathematics is formalized manually in very precise, specific and well-defined logical systems. The languages supported by these systems impose strong restrictions. For instance, these languages have non-ambiguous syntax with a limited number of possible syntactic constructions. This enterprise divides the world of mathematics in two groups. The first group consists of a vast majority of mathematicians whose rely on the language of mathematics only. In contrast, the second group consists of a minority of mathematicians. They use formal systems such as theorem provers (interactive ones mostly) in addition to the language of mathematics. To bridge the gap between the language of mathematics and its formalized versions, we may ask the following gigantic question: Can we build a program that understands the language of mathematics used by mathematicians and can we mechanically verify its correctness? This problem can naturally be divided in two sub-problems, both very hard: 1. Parsing mathematical texts (mainly proofs) and translating those parse trees to a formal language after resolving linguistic issues. 2. Validation of this formal version of mathematics. The project MathNat (Mathematics in controlled Natural language) aims at being the first step towards solving this problem, focusing mainly on the first question. For that, first, we develop a Controlled Language for Mathematics (CLM) which is a precisely defined subset of English with restricted grammar and lexicon. To make CLM natural and expressive, we support important linguistic features such as anaphoric pronouns and references, rephrasing of a sentence in multiple ways, the proper handling of distributive and collective readings and so on. The coverage of CLM at the moment is yet rather small and to be improved as the project keeps evolving in future. Second, we develop MathAbs (Mathematical Abstract language). It is a prover independent formal language to represent the semantics of CLM texts preserving its logical and reasoning structure. MathAbs is designed as an intermediate language between CLM and the formal languages of theorem provers, allowing proof checking. Third, we propose a system that can automatically translate CLM to MathAbs, giving a precise semantics to CLM. We consider that formalizing mathematics automatically in such a formal language that has a precise semantics is an important progress even if it can't always be proof-checked. This brings us to the second question for which we report a very limited work. We only translate MathAbs to the first-order formulas. If we feed these formulas to the automated theorem provers (ATPs), then fundamentally the ATPs should be able to validate them sometimes. In other words, the resulting MathAbs document is not completely verifiable for the moment, but it represents an opportunity for the mathematician to write mathematical text (mainly proofs) without becoming expert of any theorem prover. Keywords: Computational linguistics, Controlled languages, Formalization, Formal systems, Verification, Proof checking.

Jeudi 19 janvier 2012 à 14h Gilles Lebeau (Laboratoire Dieudonné de Nice),
Algorithme de Metropolis

Résumé : (Masquer les résumés)
L'algorithme de Metropolis est un algorithme permettant de tirer un point au hasard pour une probabilité donnée. Il a été introduit en 1953 par N. Metropolis, A.-W. Rosenbluth, M.-N. Rosenbluth, A.-H. Teller, E. Teller, dans l'article '' Equations of State Calculations by Fast Computing Machines, Journal of Chemical Physics 21 (6) 1087--1092. Il a ensuite été généralisé en 1970 par W.-K. Hastings dans ``Monte Carlo Sampling Methods Using Markov Chains and Their Applications'', Biometrika 57 (1) 97?109. Cet algorithme, et ses variantes, est un des plus utilisés du calcul scientifique, voir par exemple ``top ten algorithms of the century'' sur google. Son étude mathématique est par contre très loin d'être achevée et pose des problèmes fort intéressants de géométrie, de théorie spectrale, d'analyse, et bien sur de probabilités. Dans cet exposé, je commencerai par introduire l'algorithme sous sa forme historique : Comment choisir N disques de rayon r (sans recouvrement ) au hasard dans un carré? et j'indiquerai quelques résultats et problèmes ouverts sur ce modèle. Dans une deuxième partie, je montrerai comment les plus simples des algorithmes de Metropolis, associés à des marches aléatoires à ``petits pas'', conduisent à l'étude d'opérateurs qui généralisent les opérateurs du calcul pseudodifférentiel semiclassique usuel.

Jeudi 02 février 2012 à 15h30, TLR Boris Kolev (Université de Provence),
Un principe universel de la mécanique d'après Jean-Marie Souriau

Résumé : (Masquer les résumés)
« div(T) = 0, c'est la mécanique ! » . À partir de cette expression attribuée à Einstein, Jean-Marie Souriau a formulé une équation universelle de la mécanique, dont dérive la plupart des modèles de la mécanique des milieux continus. Cet exposé propose de présenter cette formulation géométrique, élégante et encore mal connue.

Jeudi 31 mai 2012 à 14h Hervé Le Ferrand (Université de Bourgogne),
Fractions continues algébriques : la contribution de Robert de Montessus de Ballore

Résumé : (Masquer les résumés)
En mathématiques, dans le domaine de l'Approximation Rationnelle, en particulier les fractions continues, approximation au sens Padé, il n'est pas rare de rencontrer parmi les publications récentes le nom Montessus de Ballore. Par exemple, en 2009 paraît dans Found Comput Math Convergent Interpolation to Cauchy Integrals over Analytic Arcs, de Laurent Baratchart et Maxim Yattselev, dans lequel le théorème de convergence de Robert de Montessus est donné en référence. En 2010, A. Sidi publie dans Comput. Methods Funct. Theory, A de Montessus type convergence study of a least-squares vector-valued rational interpolation procedure II, dans lequel une généralisation du résultat de Robert de Montessus est donnée. Ainsi, à quoi tient la pérennité de ce résultat ?
Robert de Montessus fut lauréat en 1906 d'un Grand Prix de l'Académie des Sciences et en 1917, il rentre au comité de rédaction du Journal de Mathématiques Pures et Appliquées alors dirigé par Camille Jordan. C'est au cours de l'année 1902 que Robert de Montessus de Ballore (1870-1937) prouva son fameux théorème [3] sur la convergence d'approximants de Padé de fonctions méromorphes [2]. Pour la démonstration, il utilisa en particulier des résultats de J. Hadamard sur ce que l'on appelle aujourd'hui les polynômes de Hadamard. Jusqu'en 1909, Robert de Montessus publia des travaux sur les fractions continues algébriques.
Nous cherchons à comprendre comment son théorème s'est diffusé et examinons aussi les autres résultats qu'il a obtenus. Nous disposons en particulier de toute une correspondance scientifique que nous avons recueillie auprès de sa famille et qui fait l'objet d'un archivage à l'Université Pierre et Marie Curie [1]. Certaines de ces lettres permettent d'expliquer la genèse du théorème de 1902. Nous en projetterons des fac-similés. En particulier, Henri Padé et Robert de Montessus ont correspondu durant les années 1901-1902. Nous verrons aussi que le résultat de 1902 est rapidement cité par des mathématiciens comme Van Vleck, Nörlund ou encore O. Perron avant la première guerre mondiale, puis Wilson et surtout J.L. Walsch entre les deux guerres.

[1] Fonds Robert de Montessus de Ballore (Université Pierre et Marie Curie, Paris, archivage en cours).
[2] Claude Brezinski, History of continued fractions and Padé approximants, Springer Verlag, Berlin, (1991).
[3] R. de Montessus de Ballore, Sur les fractions continues algébriques, Bull. Soc. Math. France 30 (1902), pp 28-36.
[4] Biographie de R. de Montessus de Ballore sur Mac Tutor : lien.

Jeudi 14 juin 2012 à 10h, ANNECY Fédération de recherche (MSIF) Olivier Laffitte (Département de Mathématiques, Institut Galilée, Université Paris 13),
Quantification et taux de croissance des instabilités en hydrodynamique classique

Résumé : (Masquer les résumés)
Il est connu depuis lord Rayleigh que certaines instabilités hydrodynamiques (essentiellement les instabilités de Rayleigh-Taylor, instabilité de Couette) peuvent être prises en compte par une équation différentielle ordinaire faisant intervenir le taux de croissance de l'instabilité (qui s'appelle selon les cas Orr-Sommerfeld ou Rayleigh). Mikaélian a remarqué que l'équation de Rayleigh pouvait se réécrire de manière équivalente comme une équation de Schrodinger (Phys Rev E 53, 1996). Avec C. Cherfils dans un cas particulier (Phys Rev E 62, 2000) puis avec B. Helffer dans le cas général pour l'équation de Rayleigh, nous avons démontré que le taux de croissance de l'instabilité de Rayleigh-Taylor linéarisée n'étaitpas unique, mais suivait une suite quantifiée (valeurs propres d'un opérateur classique), et nous démontrons que cette remarque permet la construction d'un mode instable pour le problème de Rayleigh-Taylor dans le cas non linéaire.

Jeudi 28 juin 2012 à 14h M. Putinar (University of California at Santa Barbara),
La quantification de l'ellipse

Résumé : (Masquer les résumés)
Lorsque l'on interprète l'équation quadratique d'une ellipse au niveau des opérateurs de l'espace d'Hilbert, on découvre une anomalie entre la sous-normalité (des opérateurs) et la positivité hermitienne (des polynômes). Mais lorsqu'on analyse de près la même quantification, on découvre que l'ellipse se singularise par deux propriétés : ses opérateurs respectifs possèdent une matrice diagonale triple et le problème de Dirichlet admet des solutions polynomiales. Cette présentation se veut accessibles à des étudiants de Master et s'efforcera de ne pas rentrer dans des aspects trop techniques.

Vendredi 12 octobre 2012 à 14h30 Matthieu Simonet (LAMA, Université de Savoie),
Mots de retour dans les plans sturmiens

Résumé : (Masquer les résumés)
Les mots sturmiens sont une façon de coder les droites discrètes apériodiques. Ils ont été étudiés depuis la fin du 19ème siècle et disposent de nombreuses caractérisations. L'une d'elles, obtenue par Vuillon, est centrée sur la notion de mot de retour. Cette thèse a pour objet l'étude des mots sturmiens en dimension 2 vus comme codages des plans discrets apériodiques. L'objectif est d'aller vers une caractérisation des mots sturmiens bi-dimensionnels analogue à celle obtenue par Vuillon en dimension 1. Mais des problèmes propres à la dimension 2 rendent cette étude délicate, tels l'absence de concaténation de mots ou la difficulté à localiser un facteur au sein d'un mot. Afin d'y faire face, nous introduisons en dimension 2 les notions de motifs, motifs pointés, mots de localisation et mots de retour. Nous obtenons ainsi un prolongement à la dimension 2 d'un théorème de Morse et Hedlund concernant certains mots de retour dans un mot sturmien. Ce résultat nous permet d'établir un nouvel algorithme de fractions continues et nous permet de proposer, dans un cadre restreint, une notion de suite dérivée.

Jeudi 13 décembre 2012 à 14h Pierre Etienne Meunier (LAMA, Université de Savoie),
Les automates cellulaires comme modèle de complexités parallèles.

Résumé : (Masquer les résumés)
Dans ma thèse, j'ai étudié les liens entre deux notions différentes de la complexité. La complexité algorithmique, d'une part, qui mesure la difficulté de réaliser une tâche automatiquement. La complexité de systèmes, d'autre part, qui est le degré d'intrication des actions des agents du système. Cette approche est relativement nouvelle, à la fois dans les deux théories, et offre des perspectives enthousiasmantes pour parler des grandes conjectures de la complexité. En particulier, nous avons réussi à développer une méthode générique pour construire des bornes inférieures de complexité, et des conditions nécessaires relativement élémentaires sur notre modèle de calcul, ce qui est souvent considéré comme une question difficile en théorie de la complexité. D'autre part, mon travail propose une définition alternative de classes de complexité, basée sur des automates cellulaires, et étudie les relations avec les définitions classiques. Enfin, la dernière partie de mon travail a consisté à utiliser les méthodes de la théorie de la complexité pour ouvrir de nouvelles pistes sur une conjecture ancienne en automates cellulaires, à savoir l'existence d'un automate universel par facteur. J'ai soutenu ma thèse le 26 octobre 2012 à Santiago, au Chili, mais je suis heureux de vous convier à cet exposé, sans doute plus informel, sur les travaux que j'ai effectués pendant ces quelques années au LAMA.

Jeudi 28 mars 2013 à 14h Pascal Koiran (Ecole Normale Supérieure de Lyon),
A Wronskian approach to the real tau-conjecture

Résumé : (Masquer les résumés)
According to Shub and Smale's tau-conjecture, the number of integer roots of a univariate polynomial should be polynomially bounded in the size of the smallest (constant free) straight-line program computing it. This statement becomes provably false if one counts real roots instead of integer roots. I have proposed a real version of the tau-conjecture where the attention is restricted to straight-line programs of a special form: the sums of products of sparse polynomials. This conjecture implies that the permanent polynomial cannot be computed by polynomial-size arithmetic circuits. The complexity of the permanent in the arithmetic circuit model is a long standing open problem, which can be thought of as an algebraic version of P versus NP. In this talk I will present the real tau-conjecture and its consequence for the permanent. If time allows, I will introduce a new tool in this context: the Wronksian determinant. This leads to some modest progress on the real tau-conjecture, and to new bounds on the number of solutions of sparse systems of polynomial equations. The latter bounds seem to be of independent interest from the point of view of real algebraic geometry.

Jeudi 04 avril 2013 à 14h Thomas Seiller (LAMA, LIMD),
Géométrie de l'interaction: Preuves, Opérateurs et Complexité Algorithmique

Résumé : (Masquer les résumés)
La logique, et plus particulièrement la théorie de la démonstration — domaine qui a pour objet d'étude les preuves mathématiques, a récemment donné lieu à de nombreux développements concernant l'informatique théorique. Ces développements se fondent sur une correspondance, dite de Curry-Howard, entre les preuves mathématiques et les programmes informatiques. L'intérêt de cette correspondance provient du fait que celle-ci soit dynamique: l'exécution des programmes correspond à une procédure sur les preuves, dite d'élimination des coupures. Suite à une étude poussée de la formalisation des preuves, Jean-Yves Girard a initié le programme de géométrie de l'interaction. Ce programme, dans une première approximation, a pour objectif l'obtention d'une représentation des preuves rendant compte de la dynamique de l'élimination des coupures. Via la correspondance entre preuves et programmes, cela correspond donc à obtenir une sémantique des programmes rendant compte de la dynamique de leur exécution. Cependant, le programme de géométrie de l'interaction est plus ambitieux: au-delà de la simple interprétation des preuves, il s'agit d'une complète reconstruction de la logique autour de la dynamique d'élimination des coupures. On reconstruit donc la logique des programmes eux-mêmes, dans un cadre où la notion de formule rend compte du comportement des algorithmes. Depuis l'introduction de ce programme, Jean-Yves Girard a proposé plusieurs constructions afin de le réaliser dans lesquelles les preuves sont représentées par des opérateurs dans une algèbre de von Neumann. Ces constructions étant fondées sur la notion d'exécution des programmes, le programme de géométrie de l'interaction est particulièrement pertinent pour l'étude de la complexité algorithmique. En particulier, ce programme a déjà démontré qu'il permettait de formaliser à l'aide d'outils mathématiques des classes de complexité en temps et en espace.

Jeudi 20 juin 2013 à 10h, Salle TLR Benjamin Nill (Case Western Reserve University - en partance pour l'université de Stockholm),
Ehrhart polynomials and A-Discriminants

Résumé : (Masquer les résumés)
In this talk I will illustrate how to use basic results in Ehrhart theory to solve a problem on discriminants. I will introduce all the necessary notions such as Ehrhart polynomials and lattice polytopes. As it turns out, the problem will be reduced to a question about binomial coefficients.

Jeudi 14 novembre 2013 à 15h Hervé Pajot (Université de Grenoble I),
Courbure et inégalités de Poincaré

Résumé : (Masquer les résumés)
Un résultat maintenant classique (et souvent attribué a Peter Buser) dit que toute variété riemannienne complète à courbure de Ricci positive admet des inégalités de Poincaré. Dans cet exposé, on essayera de donner/proposer des analogues du théorème de Buser dans le cas des espaces métriques continus (espace géodésiques) ou discrets (graphes).

Jeudi 13 février 2014 à 14h Jimmy Garnier (LAMA, Université de Savoie),
Modélisation mathématique en dynamique des populations et génétique des populations

Résumé : (Masquer les résumés)
Au cours de cet exposé, je vous présenterai mes thèmes de recherche à l'interface entre mathématiques et écologie et mes problématiques de travail. Un de mes axes d'étude est de comprendre et de décrire les effets de la dispersion et de la croissance d'une population sur son devenir et notamment sur sa diversité génétique. Dans un premier temps, je décrirai les divers modèles mathématiques utilisés en dynamique des population et en génétiques des populations pour répondre à ces questions. Ensuite, je vous montrerai comment mon approche mathématique basée sur des EDPs permet de décrire la dynamique de la diversité génétique d'un population en expansion. Ces travaux sont basés sur l'étude de solutions particulières des équations de réaction-dispersion: les fronts progressifs ou traveling waves. Ces solutions décrivent l'invasion d'un état stationnaire du système par un autre.

Mardi 10 juin 2014 à 11h Dorin Bucur (LAMA, Université de Savoie),
Inégalités isopérimétriques et problèmes à frontière libre

Lundi 03 novembre 2014 à 13h30 Nasr Almokdad (LAMA, Universirté de Savoie),
Méthode de relaxation et calcul variationnel

Résumé : (Masquer les résumés)
Nous présentons une nouvelle librairie pour le calcul des variations, la librairie CalcVar. Une attention particulière a été portée lors du développement au calcul efficace de l’évaluation numérique de la fonction coût, de son gradient et de sa matrice hessienne. Nous regardons aussi la régularisation des surfaces discrètes par la minimisation d’énergies. Nous nous intéressons plus particulièrement à l’étude numérique de ce type d’approximation en dimension trois. Nous montrons comment cette approche peut permettre la régularisation de contours en présence de singularités. d’ordre deux. Nous proposons enfin un nouvel algorithme de génération aléatoire d’objets de largeur constante dont nous établissons la convergence presque sûre. Ce travail est, à notre connaissance, le premier algorithme permettant de générer des objets de largeur constante sans informations géométriques restrictives (symétrie de révolution, coupe de largeur constante, etc.).

Jeudi 06 novembre 2014 à 14h Michel Merle (Université de Nice Sophia Antipolis),
Intégration p-adique et motivique

Résumé disponible sous forme de fichier PDF.

Jeudi 12 février 2015 à 14h Clotilde Fermanian (Université Paris Est - Créteil Val de Marne),
Mesures semi-classiques et théorèmes de masse effective

Jeudi 23 avril 2015 à 14h Michel Pierre (ENS de Rennes et Institut de Recherche Mathématique de Rennes),
Colloquium : Modèles mathématiques de réaction-diffusion : anciens et nouveaux défis

Résumé : (Masquer les résumés)
Depuis l'exceptionnelle contribution d'Alan Turing sur la modélisation mathématique de la morphogénèse en 1952, il est connu qu'ajouter de la diffusion dans un bon système d'équations différentielles ordinaires peut, paradoxalement, détruire la stabilité des solutions stationnaires. Ces instabilités, dites de Turing, conduisent alors à de nouveaux états stationnaires qui sont non homogènes en espace et font apparaître une riche panoplie de motifs asymptotiques. Il s'avère que l'ajout de diffusion peut même détruire l'existence globale en temps et créer des explosions en temps fini. Le but de cet exposé est de discuter cette question d'existence globale pour les systèmes de réaction-diffusion, en particulier ceux, très fréquents dans les applications, où la positivité des solutions est préservée et pour lesquels la masse totale est à priori bornée. Bizarrement, la question reste encore ouverte dans sa généralité. Nous indiquerons ce qui a été résolu ainsi que les défis restants.

Mardi 08 décembre 2015 à 14h Beniamin Bogosel (LAMA, USMB),
Thèse

Jeudi 31 mars 2016 à 14h Yann Brenier (Centre de mathématiques Laurent Schwartz, Ecole Polytechnique),
Nuages browniens, transport optimal, gravitation et hydrodynamique

Résumé : (Masquer les résumés)
L'observation à un instant T du mouvement brownien d'un nuage de points indistinguables dont on connaît la position initiale conduit naturellement au problème de transport optimal de Monge, comme on le comprend dorénavant bien à la suite d'un article de Schroedinger datant des années 30. En poussant un peu plus loin l'analyse, à l'aide du principe de grandes déviations et de techniques de calcul des variations, on arrive à un système dynamique de particules liée au groupe symétrique, dont on peut ensuite dériver par analyse asymptotique des modèles classiques de mécanique, tels que la gravitation de Newton et l'hydrodynamique d'Euler.

Mercredi 21 septembre 2016 à 14h, Salle TLR Boulos El-Hilany (LAMA / université de Tübingen),
Soutenance de thèse, Géométrie tropicale et systèmes polynomiaux

Résumé disponible sous forme de fichier PDF.

Jeudi 24 novembre 2016 à 15h Alicia Dickenstein (Universidad de Buenos Aires),
From chemical reaction networks to Descartes' rule of signs

Résumé : (Masquer les résumés)
In the context of chemical reaction networks with mass-action and other rational kinetics, a major question is to preclude or to guarantee multiple positive steady states. I will explain this motivation and I will present necessary and sufficient conditions in terms of sign vectors for the injectivity of families of polynomials maps with arbitrary real exponents defined on the positive orthant. These conditions extend existing injectivity conditions expressed in terms of Jacobian matrices and determinants, obtained by several authors. In the context of real algebraic geometry, this approach can be seen as the first partial multivariate generalization of the classical Descartes' rule, which bounds the number of positive real roots of a univariate real polynomial in terms of the number of sign variations of its coefficients. This is joint work with Stefan Müller, Elisenda Feliu, Georg Regensburger, Anne Shiu and Carsten Conradi. I will also present some further advances in this multivariate generalization obtained in collaboration with Frédéric Bihan, together with applications to biochemical MESSI systems obtained in collaboration with Mercedes Pérez Millán.

Jeudi 16 mars 2017 à 14h, Pôle montagne, salle 110 Patrick Gérard (Univ. Paris-Sud, LMO),
Intégrabilité et turbulence dans les équations aux dérivées partielles hamiltoniennes.

Résumé : (Masquer les résumés)
Dans le monde des systèmes hamiltoniens d'équations aux dérivées partielles, les notions d'équation intégrable et de solution turbulente occupent des places apparemment irréconciliables. Après avoir tenté de donner une idée accessible de ces deux notions, je discuterai un exemple découvert récemment d'équation obtenue comme forme normale d'un modèle d'onde non linéaire, qui est intégrable au sens de Lax, mais dont les solutions sont génériquement turbulentes.

Jeudi 13 avril 2017 à 14h Arnaud Beauville (Laboratoire JA Dieudonné, Nice),
Le problème de Lüroth

Résumé disponible sous forme de fichier PDF.

Jeudi 11 janvier 2018 à 14h Pierre Arnoux (Marseille),
TBA

Résumé : (Masquer les résumés)
TBA

Le séminaire de l’équipe Labo est sous la responsabilité de Michel Raibaut.
Options : Voir par date décroissante. Masquer les résumés.
Par année : 2003, 2004, 2005, 2006, 2007, 2008, 2009, 2010, 2011, 2012, 2013, 2014, 2015, 2016, 2017, 2018.