Étude du comportement de l’interface sable-pieu sous chargement axial monotone et cyclique à l’échelle granulaire

Author(s):  
Jeanne Doreau-Malioche ◽  
Gaël Combe ◽  
Gioacchino Viggiani

De nombreuses études expérimentales sont conduites pour analyser quantitativement la cinématique et l’écrasement des grains à l’interface sable-pieu sous chargement axial. Néanmoins, les résultats sont obtenus soit post-mortem, soit en déformations planes, et principalement pendant l’installation du pieu. L’article présente une approche innovante associant la tomographie à rayons X et l’analyse d’images en 3D et permettant d’extraire des informations à l’échelle granulaire, pendant le chargement monotone et cyclique du pieu. Les tests sont réalisés sur un pieu instrumenté installé par fonçage monotone dans un échantillon dense de sable. Après son installation, le pieu est soumis à un grand nombre de cycles axiaux contrôlés en déplacement à contrainte radiale constante. Ces essais sont conduits dans une mini-chambre de calibration qui permet d’acquérir des tomographies à rayons X à haute résolution après différentes étapes de chargement. La réponse macroscopique de l’interface montre une évolution du frottement à l’interface pendant les cycles en deux phases, avec une augmentation non négligeable de la résistance de frottement dans la seconde phase. Pour ces deux phases, la mesure de la cinématique révèle un comportement du sable différent associé à une densification importante à l’interface. D’abord, le sol se contracte radialement dans une zone de 4 D50 d’épaisseur. Ensuite, les grains de sable se déplacent difficilement et la densité à l’interface atteint un seuil pour lequel le frottement sur le pieu augmente de manière significative.

Author(s):  
Denis Feurer ◽  
Mohamed Amine El Maaoui ◽  
Mohamed Rached Boussema ◽  
Olivier Planchon

Tous vecteurs confondus, ce sont les drones, notamment les multirotor, qui ont connu le plus fort développement pour l'acquisition d'images aériennes durant les cinq dernières années. L'imagerie accessible par ce type de plate-forme répond à un besoin de cartographie à une échelle intermédiaire entre l'imagerie submétrique (satellite à très haute résolution spatiale ou vecteurs aériens comme les ULM et certains drones) et l'imagerie acquise à très basse altitude à des résolutions parfois inférieures au centimètre. Par son prix élevé, l'imagerie submétrique aérienne et satellitaire laisse un grand nombre de besoins sans réponse acceptable. Parmi eux, citons l'imagerie à petit budget demandée par les collectivités locales ou les suivis denses (en particulier temporels). Finalement, la réglementation récente a encadré les vols drones de manière très contraignante, mettant virtuellement hors-la-loi tous les acteurs occasionnels d'imagerie par drone.L'objectif de cette communication est de présenter une méthode simple, opérationnelle et à bas coût pour la prise de vue aérienne. Il s'agit d'utiliser le cerf-volant comme vecteur alternatif aux aéronefs sans pilote. Le cerf-volant (avec le ballon) fait partie des premières plates-formes utilisées historiquement pour la photographie aérienne. Il a connu un regain d'intérêt depuis les années 70-80 avec de nombreuses applications en archéologie et la disponibilité depuis les années 2000 de capteurs et logiciels abordables et performants le rend plus attractif encore. La méthode proposée ici permet la cartographie de superficies dépassant le kilomètre carré à une résolution décimétrique. Elle présente un certain nombre d'atouts, comme le coût modique de la plate-forme et la capacité de voler sur une très large plage de vents (de 5 à 40km/h), un cerf-volant de six à dix mètres carrés ayant la même charge utile qu'un drone pour une autonomie supérieure. Enrevanche, la principale difficulté de mise en oeuvre opérationnelle du cerf-volant pour la cartographie par image aérienneest le manque de contrôle du vecteur, ce qui pose quelques verrous au niveau de l'acquisition et du traitement des données.Nous présentons dans cette communication les avancées méthodologiques réalisées afin de dépasser ces limites.Nous détaillons tout d'abord la méthode d'acquisition développée et le mode opératoire mis en oeuvre pour obtenir des jeux de données image permettant la cartographie opérationnelle de zones d'intérêt. Ensuite, nous présentons les traitements effectués à l'aide de logiciels désormais abordables qui permettent le calcul de l'aérotriangulation et de la corrélation dense sur plusieurs centaines d'images. Nous présentons enfin les résultats obtenus sur des exemples d'applications en conditions réelles afin de discuter du potentiel et des limitations de cette méthode, proposée comme alternative aux solutions existantes.


2005 ◽  
Vol 51 (5) ◽  
pp. 555
Author(s):  
F. Scholtes ◽  
R. Phan-Ba ◽  
E. Theunissen ◽  
P. Adriaensens ◽  
J. Schoenen ◽  
...  

Author(s):  
Jean-Marc Delvit ◽  
Céline L'Helguen

La connaissance de modèles numériques d'élévation est un élément essentiel pour un grand nombre d'applications de télédétection, notamment à très haute résolution. Cette information d'élévation peut être déduite de couples d'images stéréoscopiques en combinant des techniques photogrammétriques et des techniques de type corrélation. L'amélioration de la résolution des système spatiaux d'observation de la Terre, comme PleiadesHR (pas d'échantillonnage au sol de 70 cm) ainsi que les capacités croissantes d'acquisitions en mode stéréoscopique et multi-stéréoscopique permettent de générer de manière plus systématique des modèles numériques de terrain prenant également en compte le sursol fins (bâtis, véhicules, végétation), avec une précision de restitution de l'ordre du mètre. Une méthode générique de restitution de modèles en « vrai » 3D fortement parallélisable est ici utilisée autorisant le traitement simultané de 2 à N images sur une même zone.


2021 ◽  
Vol 6 (6) ◽  
pp. 43-54
Author(s):  
C. SOULIER ◽  
V. BOITEUX ◽  
P. CANDIDO ◽  
E. CAUPOS ◽  
M. CHACHIGNON ◽  
...  

L’analyse non ciblée connaît une forte période de croissance dans le domaine de l’analyse environnementale, car elle ouvre le champ des investigations de la qualité des milieux à un très grand nombre de composés. Cet article consiste en un retour d’expérience de 12 laboratoires français sur les pratiques et les précautions à considérer lors de la réalisation d’analyses non ciblées, en particulier pour la recherche de composés suspects dans les échantillons issus des milieux aquatiques. En effet, si cette technique apporte des informations nouvelles et très prometteuses, elle n’en reste pas moins une technique complexe qu’il convient d’utiliser avec de nombreuses précautions pour assurer des résultats de qualité. La réflexion commune entreprise dans le groupe de laboratoires, a permis de synthétiser des informations techniques afin de présenter les enjeux de cette méthodologie d’intérêt majeur en analyse environnementale de façon simple et accessible aux laboratoires, demandeurs d’analyse ou toute personne intéressée par ce type d’approche. Les verrous liés à la spécificité des analyses non ciblées, au développement de méthodes et au rendu de résultats ont été développés pour fournir des clés de compréhension pour les laboratoires et les utilisateurs de résultats. Ce travail s’attache ainsi à être un guide de découverte de la technique pour les personnes désireuses de voir ce que peut apporter l’analyse non ciblée, mais également un guide de bonnes pratiques pour celles et ceux qui acquièrent ou qui analysent des données issues de ces techniques.


Author(s):  
Benoît Beguet ◽  
Nesrine Chehata ◽  
Samia Boukir ◽  
Dominique Guyon

Cette étude montre le potentiel de l'information texturale des images à très haute résolution spatiale Pléiades pour la quantification et la cartographie de la structure forestière des peuplements de pin maritime du sud-ouest de la France (massif landais). Une première étape montre qu'il est possible d'estimer, par régressions linéaires multiples, les variables de structure forestière (comme le diamètre des couronnes ou la hauteur des arbres) à partir d'un ensemble d'attributs de texture automatiquement sélectionnés parmi un grand nombre de paramétrages possibles. La classification de l'image est ensuite effectuée en utilisant l'algorithme des forêts aléatoires (RF) pour discriminer cinq classes de structure forestière avec une approche hiérarchique. L'importance de variable des RF est utilisée pour la sélection des attributs de texture. Les résultats montrent l'intérêt de l'automatisation du processus, et de l'utilisation conjointe des deux résolutions des images Pléiades (panchromatique et multispectral) pour dériver les attributs de texture les plus performants pour détecter de fines variations de structure forestière.


Author(s):  
Shirley Siew ◽  
W. C. deMendonca

The deleterious effect of post mortem degeneration results in a progressive loss of ultrastructural detail. This had led to reluctance (if not refusal) to examine autopsy material by means of transmission electron microscopy. Nevertheless, Johannesen has drawn attention to the fact that a sufficient amount of significant features may be preserved in order to enable the establishment of a definitive diagnosis, even on “graveyard” tissue.Routine histopathology of the autopsy organs of a woman of 78 showed the presence of a well circumscribed adenoma in the anterior lobe of the pituitary. The lesion came into close apposition to the pars intermedia. Its architecture was more compact and less vascular than that of the anterior lobe. However, there was some grouping of the cells in relation to blood vessels. The cells tended to be smaller, with a higher nucleocytoplasmic ratio. The cytoplasm showed a paucity of granules. In some of the cells, it was eosinophilic.


2009 ◽  
Vol 00 (00) ◽  
pp. 090513010017019-7
Author(s):  
Biagio Solarino ◽  
Giancarlo Di Vella ◽  
Thea Magrone ◽  
Felicita Jirillo ◽  
Angela Tafaro ◽  
...  

VASA ◽  
2002 ◽  
Vol 31 (4) ◽  
pp. 281-286 ◽  
Author(s):  
Bollinger ◽  
Rüttimann

Die Geschichte des sackförmigen oder fusiformen Aneurysmas reicht in die Zeit der alten Ägypter, Byzantiner und Griechen zurück. Vesal 1557 und Harvey 1628 führten den Begriff in die moderne Medizin ein, indem sie bei je einem Patienten einen pulsierenden Tumor intra vitam feststellten und post mortem verifizierten. Weitere Eckpfeiler bildeten die Monographien von Lancisi und Scarpa im 18. bzw. beginnenden 19. Jahrhundert. Die erste wirksame Therapie bestand in der Kompression des Aneurysmasacks von außen, die zweite in der Arterienligatur, der John Hunter 1785 zum Durchbruch verhalf. Endoaneurysmoraphie (Matas) und Umhüllung mit Folien wurden breit angewendet, bevor Ultraschalldiagnostik und Bypass-Chirurgie Routineverfahren wurden und die Prognose dramatisch verbesserten. Die diagnostischen und therapeutischen Probleme in der Mitte des 20. Jahrhunderts werden anhand von zwei prominenten Patienten dargestellt, Albert Einstein und Thomas Mann, die beide im Jahr 1955 an einer Aneurysmaruptur verstarben.


NOVAcura ◽  
2020 ◽  
Vol 51 (7) ◽  
pp. 1-60
Keyword(s):  

Sign in / Sign up

Export Citation Format

Share Document