Quantcast
Channel: Le blog de l'habitat durable
Viewing all 2312 articles
Browse latest View live

Pensée du Jour

$
0
0
Pensée du Jour

Pensée du Jour

‘’Fermer les yeux devant le danger, c’est se donner en proie et renoncer à son libre arbitre.’’

George Meredith 1828 - 1909


Adaptées nos villes aux ainés, c’est les rendre accessibles…

$
0
0
Adaptées nos villes aux ainés, c’est les rendre accessibles…

Adaptées nos villes aux ainés, c’est les rendre accessibles…

Le Blog souhaite couvrir une large actualité sur l’accessibilité, entre l’application de la loi handicap 2005 qui entend couvrir tous les aspects de la vie des personnes à mobilité réduite demandait une réflexion et un travail de coordination pour la mise en œuvre, même si contraignante, de procédés permettant à nos sociétés valides de s’adapter aux personnes handicapées et non le contraire. C’est pourquoi le blog tente d’élargir la compréhension d’un sujet "ô" combien sociétal. Car l’accessibilité regroupe de multiples thématiques, une particulière relève d’une compréhension sur deux tendances que sont le vieillissement démographique et l’urbanisation. en effet, ce début du XXIème siècle sera marqué par cette disposition. Alors nos villes sont-elles adaptées au vieillissement de la population ?

L’essor urbain s’accompagne d’une augmentation progressive du nombre des citadins de plus de 60 ans. Les personnes âgées constituent une ressource pour leur famille, leur communauté et l’économie lorsqu’elles vivent dans un cadre porteur et favorable. Pour l’OMS, «vieillir en restant actif» est un processus qui s’inscrit dans une perspective globale de la vie et qui est influencé par plusieurs facteurs, isolés ou associés, favorisant la bonne santé, la participation et la sécurité pendant la vieillesse. C’est donc à travers ce cadre que l’OMS s’est inspiré pour proposer un Guide mondial des villes-amies des aînés qui a pour objectif d’inciter les villes à mieux s’adapter aux besoins des aînés de façon à exploiter le potentiel que représentent les personnes âgées pour l’humanité.

Une ville-amie des aînés qui encourage le vieillissement actif en optimisant la santé, la participation et la sécurité des citoyens âgés, pour améliorer leur qualité de vie.

Concrètement, une ville-amie des aînés adapte ses structures et ses services afin que les personnes âgées aux capacités et aux besoins divers puissent y accéder et y avoir leur place.

Pour comprendre ce qui caractérise une ville accueillante pour les aînés, il est indispensable de remonter à la source, à savoir les citadins âgés eux-mêmes. Travaillant avec des groupes répartis dans 33 villes de toutes ses régions, l’OMS a invité les personnes âgées des groupes de discussion à décrire les avantages qu’elles retirent et les obstacles auxquels elles se heurtent dans huit domaines de la vie urbaine. Dans la plupart des villes, les rapports des aînés ont été complétés par les données issues des groupes de discussion constitués d’aidants et de prestataires de soins des secteurs public, associatif et privé. Les résultats obtenus ont permis d’établir un ensemble de feuilles de route concernant les villes-amies des aînés.

L’OMS a fondé ce guide sur l’idée selon laquelle une ville-amie des aînés encourage le vieillissement actif en optimisant les possibilités de bonne santé, de participation et de sécurité afin d’améliorer la qualité de vie des personnes qui vieillissent. Les avantages et les obstacles signalés par quelque 1485 aînés et 750 aidants et prestataires de services consultés dans le cadre de ce projet mondial confirment cette idée et illustrent par de nombreux exemples le maillage complexe des caractéristiques urbaines et des déterminants du vieillissement actif. Le paysage urbain, les bâtiments, le système de transport et l’habitat favorisent les déplacements en toute confiance, les comportements sains, la participation sociale et l’autodétermination ou, au contraire, contribuent à l’isolement dû à la peur, à l’inactivité et à l’exclusion sociale. L’existence d’un large éventail d’opportunités de participation sociale ouvertes aux personnes de tous âges ou à une classe d’âge donnée est propice à l’établissement de solides relations sociales et à l’autonomisation. Une culture qui reconnaît, respecte et inclut les aînés renforce l’autonomisation et le sentiment de sa propre valeur. La diffusion d’informations utiles présentées sous une forme appropriée contribue aussi à l’autonomisation, et à des comportements sains. Des services de santé accessibles et bien coordonnés influent à l’évidence sur l’état de santé des personnes âgées et leur comportement en matière de santé. Si les opportunités d’emplois rémunérés en milieu urbain sont liées aux déterminants

économiques du vieillissement actif, les politiques qui réduisent les inégalités économiques entravant l’accès à toutes les structures, tous les services et toutes les opportunités d’une ville sont plus importantes encore.

Des plans qui favorisent la diversité sont apparus comme l’une des principales caractéristiques d’une ville-amie des aînés souvent reprises dans de nombreux sujets de discussion. La perspective «vieillir en restant actif» de l’OMS décrite dans la Partie 2 considère la période de la vie dans sa globalité; des plans y sont décrits prenant en compte la diversité, favorisant une capacité optimale chez les personnes hautement opérationnelles, et permettent de fonctionner aux personnes âgées qui, sans ces plans, deviendraient dépendantes. Les participants au projet trouveraient normal, dans une ville-amie des aînés, que l’environnement naturel et bâti soit préparé à accueillir des usagers aux capacités diverses et non conçu pour l’individu mythique « moyen » (donc jeune). Une ville-amie des aînés privilégie les aspects porteurs et non les éléments potentiellement incapacitants; elle est accueillante pour les personnes de tous âges, pas seulement pour les aînés. Il doit y avoir suffisamment de bancs et de toilettes publics; les bordures de trottoirs basses en biseau et les rampes d’accès aux bâtiments devraient se trouver couramment, et l’alternance des feux aux passages pour piétons devrait garantir la sécurité de tous. Les bâtiments et les logements devraient être conçus de façon à éliminer les obstacles. Les matériels d’information et les technologies de la communication devraient être adaptés en fonction du niveau de perception, et des besoins intellectuels et culturels. En un mot, il est important que les espaces et les structures soient accessibles.

La reconnaissance et le respect de la diversité devraient caractériser les relations sociales et avec les services autant que les structures physiques et les matériaux. Les participants à ce projet OMS disent clairement que le respect et la considération pour la personne doivent être des valeurs essentielles dans la rue, à la maison et sur la route, dans les services publics et commerciaux, au travail et dans les établissements de soins. Dans une ville-amie des aînés, les usagers des espaces publics devraient se conduire avec respect et partager les équipements collectifs. L’usage prioritaire des sièges réservés dans les transports publics et des zones de stationnement et d’arrêt pour des besoins particuliers devrait être respecté. Les services devraient employer du personnel accueillant qui consacre du temps à chaque usager. Les commerçants devraient servir les personnes âgées aussi bien et aussi rapidement que les autres clients. Les employeurs et les agences devraient assouplir les conditions d’emploi et dispenser une formation aux employés et aux bénévoles âgés. Les communautés devraient reconnaître les contributions présentes, mais aussi passées, des aînés. L’éducation encourageant la sensibilisation, les écoliers devraient être instruits sur le vieillissement et sur les aînés, et les médias devraient les représenter de façon réaliste, non stéréotypée.

L’approche de la vie dans son intégralité associe tous les âges à la promotion du vieillissement actif. La valeur qu’est la solidarité entre générations en fait également partie. Pour les participants au projet, il est aussi important qu’une ville-amie des aînés encourage la solidarité entre les générations et les communautés. Une ville-amie des aînés doit faciliter les relations sociales — dans le cadre des services locaux et des activités qui rassemblent des personnes de tous âges. Les occasions entre voisins de faire connaissance devraient être encouragées; les résidents d’un même voisinage devraient veiller à leur sécurité respective, s’entraider et s’informer mutuellement. Grâce à un réseau de parents, d’amis, de voisins et de prestataires de services en qui ils ont confiance, les membres âgés de la communauté devraient se sentir intégrés et en sécurité. Des contacts personnalisés devraient en outre être établis avec des aînés exposés à l’isolement social, et les obstacles économiques, linguistiques ou culturels auxquels se heurtent de nombreuses personnes âgées devraient être réduits au minimum.

Caractéristiques urbaines intégrées se renforçant mutuellement

Les liens solides entre les différents aspects de la vie urbaine établis par les personnes consultées dans le cade du projet OMS montrent clairement qu’une ville-amie des aînés ne peut résulter que d’une approche intégrée centrée sur le mode de vie des aînés. La coordination des initiatives des différents secteurs de la politique et des services urbains contribuera, selon cette approche, à les renforcer mutuellement. D’après les rapports des aînés et des autres participants au projet, il apparaît comme particulièrement important de suivre une démarche commune qui respecte les relations décrites ci-après.

L’habitat doit être considéré en relation avec les espaces extérieurs et le reste de l’environnement bâti de façon à ce que les logements des aînés soient situés dans des lieux protégés contre les risques naturels et à proximité des services, des autres groupes d’âge et des activités citoyennes qui leur permettent de rester intégrés dans la communauté, mobiles et en bonne santé.

Les services de transport et les infrastructures doivent toujours être reliés aux opportunités de participation sociale, citoyenne et économique, et donner accès aux services de santé essentiels.

L’inclusion sociale des aînés doit cibler des arènes sociales et des rôles qui confèrent du pouvoir et un statut dans la société, comme la prise de décisions dans la vie citoyenne, des emplois rémunérés et la programmation des médias.

Le savoir étant un facteur essentiel d’autonomisation, l’information sur tous les aspects de la vie urbaine doit être accessible à tous en permanence.

Combien de villes en France sont officiellement ville-amie des aînés : elles sont officiellement 19 à être reconnues par l’OMS : Angers, Bar-le-Duc, Besançon, Bey, Carquefou, Dijon, Limonest, Lyon, Le-Havre, Metz, Quatzenheim, Quimper, Rennes, Royan, Saint-Denis de la Réunion, Schœlcher, Strasbourg, Toulouse, Villeneuve-sur-Lot.

Aircity : une simulation 3D de la pollution à Paris

$
0
0
Aircity : une simulation 3D de la pollution à Paris

Aircity : une simulation 3D de la pollution à Paris

Airparif et ses partenaires ont développé, dans le cadre du projet Aircity, un prototype qui permet de calculer la pollution à Paris, avec une résolution de trois mètres.

Le dispositif permet de cartographier, sur 120 zones de Paris, les niveaux de dioxyde d’azote et de particules. Il donne une représentation précise de la dispersion de la pollution en fonction du vent et des bâtiments environnants. Dans une ville, la pollution peut se trouver confinée entre les bâtiments dans les rues étroites, car la vitesse du vent y est plus faible. Au contraire, elle est moins présente sur les larges avenues où le brassage de l’air est plus important.
L’objectif du projet est de développer un système de simulation pour représenter et prévoir la pollution atmosphérique en tout point de la ville.
Son système s’appuie sur l’utilisation d’un logiciel, nommé PMSS, déjà utilisé par le CEA dans le cadre de la défense civile. Il a fallu deux ans de pour adapter ce logiciel au domaine de la pollution atmosphérique et pour permettre une représentation cartographique en 3D. On compte au total 450 processeurs pour tout Paris.

Concrètement la réflexion s’est portée sur comment représenter précisément la dispersion de la pollution, rue par rue, en fonction du vent et des bâtiments environnants ? La pollution peut par exemple se trouver confinée entre les bâtiments dans les rues étroites, car la vitesse du vent y est plus faible. Au contraire, les larges avenues favorisent un meilleur brassage de l’air. Les travaux de simulation effectués au quotidien par Airparif, notamment pour les bulletins de prévision pour le jour même et pour le lendemain, permettent une bonne représentation de la qualité de l’air à l’échelle des différents secteurs de la région, mais ne sont pas adaptés pour une représentation locale aussi détaillée.

Une réponse a été apportée par Aircity, projet coordonné par Aria Technologies, l’objectif étant de cartographier les niveaux de dioxyde d’azote et de particules en tout point de Paris, avec une résolution de l’ordre de quelques mètres. Le projet s’appuie sur l’utilisation d’un logiciel, nommé PMSS, déjà utilisé par le CEA dans le cadre de la défense civile. Ce modèle permet de prendre en compte la dispersion physique de l’air en fonction des champs de vent et des obstacles. Deux ans de travaux ont été nécessaires pour adapter le logiciel au domaine de la pollution atmosphérique et pour permettre une représentation cartographique en 3D. Dans une première phase, les calculs ont été menés sur une zone centrale d’environ 4 km2, « l’hyper centre » de Paris, puis ils ont été étendus à toute la capitale comme démonstrateur (plus de 160 km2 pris en compte). Ces zones centrales ont été privilégiées car c’est au cœur de l’agglomération parisienne que la pollution et le réseau de mesure d’Airparif sont les plus denses. Un critère de choix majeur pour une meilleure comparaison entre calculs et mesures.

Airparif a d’abord apporté son expertise pour affiner les données d’entrée du modèle. En effet, la représentation du trafic nécessitait d’être précisée pour suivre très exactement les axes routiers parisiens tels qu’ils sont tracés dans la cartographie élaborée par l’IGN. Il a fallu également assurer que les conditions aux limites, c'est-à-dire l’import de pollution dans le domaine, étaient correctement renseignées grâce au modèle Chimere utilisé à l’échelle de la région. Enfin, Airparif a validé la cohérence du résultat final par rapport aux données de ses stations de mesure réparties dans la capitale.

Cohérence des résultats le long des axes et difficultés pour les places

La validation a été effectuée sur l’hyper centre de la capitale, les résultats des calculs horaires pour les oxydes d’azote étant comparés pendant plus d’un mois à quatre stations d’Airparif situées le long du trafic, au niveau du boulevard Haussmann, des Champs-Élysées, de la place de l’Opéra et de la rue Bonaparte. Cette confrontation statistique a montré que les concentrations étaient bien reproduites le long des axes routiers. Au niveau de la place de l’Opéra, les émissions de pollution du trafic nécessiteraient d’être affinées, étant donnée la complexité de la circulation dans un tel environnement. Par ailleurs, les résultats pour les particules ont été testés sur une journée : ils pourraient être améliorés en prenant en compte la remise en suspension et les réactions chimiques associées à ce polluant. C’est une constante dans la plupart des modèles compte tenu de la diversité des sources de particules.

Ces résultats prometteurs mériteraient d’être validés sur de plus longues périodes. Mais ils offrent déjà de nombreuses perspectives. Très haute résolution, temps de calcul raisonnables, bonne reconstitution physique du vent et de la dispersion, représentation graphique en trois dimensions...

Les performances atteintes permettent d’envisager une utilisation pour des études locales détaillées, rue par rue par exemple, ou même à l’échelle d’une commune entière afin de mieux illustrer le volet « air » d’un PLU (plan local d’urbanisme) ou d’un SCOT (Schéma de cohérence territoriale). On peut aussi envisager l’utilisation de cet outil de modélisation dans les projets d’urbanisme ou de rénovation sur les quartiers fortement exposés à la pollution atmosphérique afin de privilégier des options d’aménagement permettant de réduire cette exposition.

En chiffres :

I Résolution : 3 m

I 2 zones : l’hyper centre (2,3 km par 2,3 km) et Paris tout entier (12 km par 10,5 km)

I 4 stations de mesure Airparif sur l’hyper centre, 20 stations sur l’ensemble de Paris

I Émissions du trafic routier réparties sur 38 000 portions d’axe pour tout Paris

I Découpage de la ville en 120 zones de calcul

I Temps de calcul pour une journée : environ 10h sur l’hyper centre, 14h sur tout Paris

I Moyens de calcul : 24 processeurs pour l’hyper centre, 500 processeurs pour tout Paris soit l’équivalent de 500 ordinateurs personnels

Aircity : une simulation 3D de la pollution à Paris

Une ville à 30 km/h, c’est mobile

$
0
0
Une ville à 30 km/h, c’est mobile

Une ville à 30 km/h, c’est mobile

Une ville à 30 km/h au lieu de 50, c’est le crédo de plusieurs associations qui souhaitent voir instaurer la règle de 30 km/h dans nos villes, estimant que la la logique routière n’a aucune raison d’être en ville.

Le club ville 30 estime que la rue n’est pas seulement un espace de circulation : c’est aussi et surtout un espace de vie. Et pour cela il faut lui redonner vie.

Défendant cette conviction, le collectif Ville 30 réclame la généralisation du 30km/h comme vitesse de référence.

Le 50km /h devient alors l’exception et non plus la règle. La mise en place d’une telle mesure permet tout à la fois d’assurer une meilleure sécurité des usagers les plus vulnérables, en l’occurrence les piétons, en particulier les enfants, les personnes à mobilité réduite et les cyclistes, de réduire le bruit et la pollution de l’air dus au trafic urbain, d’inciter les citadins à privilégier la marche et le vélo pour les déplacements de proximité, plus généralement, de pacifier la ville et la rendre plus conviviale.

Ces bénéfices sont parfaitement admis et reconnus. On dispose désormais d’un recul de plus de vingt ans pour en juger, puisque c’est en 1992, à Graz, en Autriche, que pour la première fois l’ensemble d’un centre-ville est passé en zone 30. Depuis, de nombreuses autres villes européennes et françaises se sont inspirées de cette expérience réussie et ont instauré la règle du 30km/h en ville.

6 perspectives pour une ville à 30 km/h :

Une ville à 30 km/h, c’est mobile

La ville à 30 permet une circulation apaisée, attentive, civilisée. Dans les secteurs exploités en « zone 30 », l’attention des automobilistes, des conducteurs de motos et de scooters ne se concentre pas uniquement sur les autres véhicules mais sur tout l’espace public. Elle peut s’ouvrir sur la richesse de la vie urbaine, sur tout ce qui s’y joue. Le rétablissement de la priorité à droite aux intersections induit également de leur part des comportements plus respectueux, plus civils et courtois. Tout ceci contribue à apaiser l’ambiance.

///// Une circulation améliorée

Le fait qu’une partie des conducteurs de véhicules motorisés en transit, souvent pressés, soient peu à peu dissuadés d’utiliser les rues en zone 30 permet à ceux qui ont vraiment une raison d’y circuler - résidents, services publics et de sécurité, livreurs, artisans - de pouvoir le faire dans des conditions de circulation améliorées, exemptes de phénomènes de congestion.

///// Le principe de prudence

La circulation dans les zones 30 favorise le respect du plus faible par le plus fort désormais édicté par la loi. Elle instaure en effet un «climat» qui dissuade généralement les automobilistes d’avoir au volant des comportements dangereux pour autrui. Le risque d’accident en est réduit d’autant.

///// Une incitation à se déplacer autrement, à se déplacer « mieux »

Dans une ville 30, la qualité de la vie urbaine s’améliorant, on voit de plus en plus d’automobilistes avoir envie de se libérer de l’auto - en tout cas ceux qui n’ont pas de trop grandes distances à parcourir ! Ils se reportent sur les transports en commun et/ou les modes actifs, avec tous les effets positifs qui y sont associés : santé, sécurité, économie, préservation du cadre de vie, convivialité.

Une ville à 30 km/h, c’est mobile

La ville à 30 pour le bien-être, pour la santé et contre la pollution. La sédentarisation croissante du mode de vie a un impact important sur la santé. Pourtant, beaucoup ignorent encore qu’on lui impute une surmortalité au moins égale à celle du tabagisme. Nos modes de vie sédentaires et motorisés augmentent en effet l’incidence des maladies cardio-vasculaires, du surpoids, du diabète, de la fréquence des chutes et de la perte d’autonomie chez les personnes âgées et même de certains cancers.

Or, se déplacer à pied ou à vélo constitue un excellent moyen de s’assurer chaque jour une activité physique d’intensité modérée d’au moins 30 mn (une marche à 4 km/h, par exemple). Telle est, en l’occurrence, la recommandation de l’OMS comme facteur de protection du bien-être et de la santé, et cela quel que soit l’âge des individus.

///// Privilégier les modes de transport actifs

La marche et l’usage du vélo ont fortement diminué au cours du 20ème siècle, disparaissant presque de l’espace urbain pour laisser place à la circulation automobile devenue toute-puissante. L’adoption du 30 km/h comme vitesse de référence en ville peut constituer un puissant levier pour inverser ce mouvement et redonner toute leur place aux modes actifs, pour qu’ils se développent dans de bonnes conditions de sécurité et de confort.

///// La pollution atmosphérique

En ville, les déplacements motorisés sont les premiers émetteurs de pollution atmosphérique et la deuxième source de particules ultra-fines (après le bâtiment). L’émission de ces particules agit sur les voies respiratoires, un phénomène responsable d’un taux de décès de 2 à 31 par 100 000 habitants par an. La réduction des vitesses en ville peut contribuer à lutter contre ce phénomène : selon l’ADEME, elle a un effet positif sur la qualité de l’air dès lors qu’elle n’entrave pas la fluidité de la circulation (évitant ainsi les phases d’accélération).

C’est cependant sur le report modal vers les modes actifs non polluants que l’on doit compter en priorité pour atteindre des objectifs ambitieux en matière d’amélioration de la qualité de l’air. Un report que la ville à 30 permet...

Une ville à 30 km/h, c’est mobile

La ville à 30, c’est bon pour la marche et la vie des quartiers. Malgré l’adoption du principe de prudence, l’accidentalité des piétons en ville ne s’est guère améliorée au cours des dernières années, en particulier concernant les personnes âgées. Et pour cause. Le maintien de la règle du 50 km/h en zone urbaine ne permet pas le plein exercice de cette prudence. À cette vitesse, la distance d’arrêt est en moyenne de 30 mètres, alors qu’elle se situe à moins de 15 mètres à 30 km/h. Ce qui se traduit en statistiques : dans un choc à 50 km/h, un piéton a une probabilité d’être tué à 60 % ; à 30 km/h, ce risque tombe à 15 % !

///// Moins de stress, moins de bruit, plus de nature

Un trafic rapide nécessite une attention soutenue de la part de tous les usagers de la rue et constitue une source de stress généralisé, mais dans la ville à 30, cette tension n’a plus lieu d’être et la congestion diminue. La qualité de vie est d’autant plus améliorée que les nuisances sonores dimi- nuent elles aussi de façon sensible,

Autre atout : le gain d’espace. Plus les voitures roulent vite, plus elles ont besoin d’espace. A contrario, dans une ville où les voitures roulent à 30 km/h, la largeur de la chaussée peut être réduite. Cela permet alors d’élargir les trottoirs, d’y installer du mobilier urbain, des bancs, d’y planter des végé- taux, de faire entrer un peu de nature dans la ville et toute mesure incitative à la marche.

///// Un atout pour les commerces de proximité

On sait aujourd’hui que les piétons sont les meilleurs clients pour les com- merces de proximité. Ils achètent moins à chaque fois, mais plus souvent - en moyenne trois fois par semaine. Les cyclistes, eux, achètent deux fois par semaine, contre moins d’une fois pour les automobilistes. Et même si le panier des marcheurs et des cyclistes est moins important, ce sont eux qui dépensent le plus (cf. FUB - Fédération française des usagers de la bi- cyclette). De plus, la fluidité de la circulation est améliorée au bénéfice des livraisons, des déplacements des professionnels et des artisans.

On assiste par ailleurs à un retour de l’attractivité des centres villes et des quartiers commerçants du fait de l’amorce d’un changement de com- portement des consommateurs. Les statistiques disponibles font en effet apparaître une certaine désaffection pour les centres commerciaux périphériques. La réduction des vitesses en ville ne peut que renforcer ce processus et favoriser le retour vers les commerces de proximité.

Une ville à 30 km/h, c’est mobile

La ville à 30, c’est bon pour le vélo. À 30 km/h, les vitesses de pointe des cyclistes, des motards et des automobilistes ne sont pas très différentes, limitant les dépassements dangereux. Mais ce n’est pas le seul intérêt pour la sécurité des cyclistes : à 30 km/h, le champ de vision de l’automobiliste et des autres usagers motorisés est également beaucoup plus ouvert. En fait, plus la vitesse est faible, plus le champ de vision est large.

///// Une incitation à la pratique du vélo

La peur de l’accident est un des principaux freins à la pratique du vélo, à commencer par celle des parents pour leurs enfants. Aussi dès que les vitesses baissent, réduisant le nombre et la gravité des accidents, le nombre de cyclistes en ville augmente-t-il très sensiblement.

///// Des aménagements spécifiques

Réduire la place de la voiture permet d’augmenter celle des autres usagers, notamment celle des cyclistes qui peuvent alors bénéficier d’aménagements spécifiques -bandes ou pistes, stationnements sécurisés. Dans une ville 30, les doubles sens cyclables peuvent être généralisés, ce qui permet des trajets plus directs et une réduction des temps de parcours.

///// Une diminution des nuisances

La limitation des vitesses s’accompagnant d’une baisse des pollutions atmosphériques et sonores constitue une incitation à délaisser plus souvent la voiture au profit du vélo... ce qui renforcera la qualité urbaine. Ainsi se crée un cercle vertueux.

///// La ville 30 contribue à réduire les coûts sociaux

Se déplacer à vélo en ville, c’est pratiquer un exercice physique au quotidien. C’est bon pour la santé de chaque cycliste, pris individuellement, mais ça l’est aussi pour la collectivité dans la mesure où cela permet de réduire les dépenses d’assurance maladie. Car ce gain -contrairement à ce qui se dit parfois- n’est pas remis en cause par l’accidentalité des cyclistes (cf. étude ORS IDF - Observatoire régional de santé Île-de-France).

Une ville à 30 km/h, c’est mobile

La ville à 30, c’est une ville où l’enfant à sa place. Jusqu’à 10-12 ans, un enfant est pratiquement incapable de se débrouiller seul dans la circulation : il n’a ni le sens du danger, ni les réflexes, ni les capacités sensorielles, ni les facultés de raisonnement d’un adulte.

///// L’enfant n’est pas un adulte en miniature

Un enfant n’a pas la même perception de la rue qu’un adulte du fait de sa taille, du développement de ses sens mais aussi de ses préoccupations et besoins. Pour lui, la rue peut apparaître comme un terrain de jeu... Un enfant n’a pas non plus les mêmes capacités d’adaptation qu’un adulte, ce qui le met en danger lorsqu’un événement inattendu survient comme le surgissement d’une voiture ou un véhicule qui recule. En principe plus en sécurité s’il est accompagné et dans un environnement familier, il a cependant tendance à baisser sa vigilance et à être moins attentif aux dangers de la rue...

///// La perception de l’enfant

Son champ de vision est réduit : alors qu’un adulte voit à 180°, un enfant d’un mètre ne dispose que d’un angle de vision d’environ 70°. Il voit essentiellement droit devant lui. Et de nombreux obstacles obstruent son champ de vision car sa petite taille ne lui permet pas de voir au-dessus des voitures et le rend même souvent invisible au regard des automobilistes. De plus, un enfant confond souvent « voir » et « être vu ».

S’il jouit d’une bonne ouïe, l’enfant a également du mal à déterminer la provenance d’un son. Il ne peut réagir qu’à un seul bruit à la fois et sélectionne toujours celui qui lui paraît le plus important (par exemple, l’appel d’un copain plutôt que le bruit d’une voiture).

Il est donc primordial de prévenir les dangers de la rue en informant aussi bien les enfants que les conducteurs à être extrêmement attentifs à l’environnement dans leurs déplacements. L’adoption du 30 km/h en ville constitue en tout cas une mesure prioritaire pour la sécurité des enfants.

Une ville à 30 km/h, c’est mobile

La ville à 30, pour des transports collectifs plus attractifs et plus efficaces. Les transports collectifs ne sont pas confrontés comme les modes actifs au risque automobile. Dans ces conditions quelle est l’incidence de la ville à 30 sur le fonctionnement et l’attractivité des transports collectifs ?.

///// C’est plus de régularité, une meilleure vitesse commerciale et plus de confort

Sur la voirie exploitée effectivement sous le régime « 30 » et qui représentera au moins les 2/3 du linéaire des rues de la ville, la réduction significative du volume de trafic motorisé est absolument nécessaire et doit conduire à la suppression des épisodes de congestion. C’est là le principal profit pour les transports collectifs, tant en gain de vitesses commerciale qu’en régularité et confort.

Sur les quelques axes maintenus à 50 km/h, vitesse commerciale, régularité et confort seront assurés grâce aux modes d’exploitation adaptés et classiques tels que : couloirs réservés, priorité aux feux.

///// C’est une meilleure insertion dans l’espace public

Dans la ville 30 l’espace public affecté à la circulation est grandement réduit. Cela offre la possibilité, notamment, de disposer de plus d’espace pour l’attente et l’information des clients des TC.

///// Les aménagements 30 compatibles avec les TC

Pour inciter ou contraindre les automobilistes à respecter la limitation de vitesse, les concepteurs disposent d’un grand nombre de possibilités d’aménagements. Ces dispositifs doivent être conçus et réalisés afin de ne pas constituer une gêne au bon fonctionnement du service de TC.

Nota : La vitesse commerciale d’un moyen de transport en commun est sa vitesse moyenne sur un trajet donné, elle tient compte de la vitesse de pointe (entre deux stations), du temps passé aux arrêts et, éventuellement, des embouteillages.

La Maison d’Accueil Spécialisée à destination des personnes handicapées à Embrun sort de terre…

$
0
0
La Maison d’Accueil Spécialisée à destination des personnes handicapées à Embrun sort de terre…

La Maison d’Accueil Spécialisée à destination des personnes handicapées à Embrun sort de terre…

Depuis janvier 2013, une construction est en train de sortir de terre à Embrun : celle d’une Maison d’Accueil Spécialisée (MAS) pour les personnes handicapées vieillissantes. C’est l’association territoriale des Pupilles de l’Enseignement Public (PEP) Alpes du Sud (regroupant les Hautes Alpes et les Alpes de Haute-Provence) qui est à l’origine de cette initiative.

Situé sur un terrain allongé et vallonné, le bâtiment imaginé par Solea Voutier & Associés Architectes s’intègre parfaitement au paysage existant, notamment grâce à ses toitures terrasse végétalisées.

Localisée dans une zone géographique où les chutes de neige sont fréquentes, la MAS d’Embrun devait être équipée d’une toiture performante thermiquement mais également mécaniquement, pour supporter de fortes charges (neige et végétalisation). Le choix du Bureau d’études Structure bois Gaujard Technologie s’est très vite orienté vers les caissons structurels Kerto-Ripa® de Metsä Wood qui combinent l’ensemble de ces avantages.

Crédits photographiques : © Solea Voutier & Associés Architectes

© SOLEA Voutier & Associés Architectes

© SOLEA Voutier & Associés Architectes

La construction d’une Maison d’Accueil Spécialisée pour les personnes handicapées vieillissantes était attendue depuis 10 ans car aucune structure médico-sociale de ce type n’existait pour les Hautes-Alpes et les Alpes de Haute Provence. 25 personnes pourront ainsi bientôt être prises en charge dans cet établissement situé à Embrun.

Le terrain alloué par la commune pour cette construction se présente en deux terrasses successives. Afin que le bâtiment s’adapte parfaitement à la topographie, la Scop d’architectes Solea Voutier & Associés a fait le choix de l’implanter sur la terrasse basse. Dotée de toitures végétalisées dans le prolongement des parkings, la MAS s’intègre ainsi parfaitement au site en terrasse.

Le projet est constitué de trois niveaux possédant tous un accès de plein pied avec le terrain :

- le niveau haut nommé Rez-de-Chaussée, de plein pied avec le parking paysagé, abrite les espaces d’accueil de l’établissement ;

- le niveau intermédiaire nommé Rez-de-Jardin haut, est occupé par les Unités de Vie organisées autour de patios, les espaces collectifs de vie et les services ;

- le niveau bas nommé Rez-de-Jardin bas, comprend les espaces d’activités et de soins, les locaux techniques.

Une attention particulière a été portée aux éléments des deux toitures terrasse (2/3 du projet), au niveau esthétique mais surtout en termes de performances thermiques et mécaniques. Pour le bureau d’études Gaujard Technologie, spécialisé en structure bois et enveloppe en matériaux biosourcés, le caisson Kerto-Ripa® s’est imposé comme la solution constructive la plus adaptée au projet. Le BET avait déjà eu l’occasion d’expérimenter le caisson Kerto-Ripa® puisqu’il l’avait prescrit pour le collège de Plouagat (22) en 2011.

© Solea Voutier & Associés Architectes

© Solea Voutier & Associés Architectes

Les caissons Kerto-Ripa® sont constitués d’éléments en Kerto®, bois d’ingénierie lamifié le plus performant structurellement. L’efficacité et la fiabilité du caisson Kerto-Ripa® viennent du principe de collage structurel entre les nervures en Kerto-S, à plis standards, et le(s) platelage(s) en Kerto-Q, à plis croisés. Le caisson Kerto-Ripa® est environ 6 fois plus raide et 2 fois moins haut qu’un caisson traditionnel en bois assemblé mécaniquement. Fruit de la R&D de Metsä Wood, cette technologie s’impose aujourd’hui comme une solution qualitative et certifiée (ETA, Avis Technique) aux multiples atouts : grandes portées, faibles retombées, raideur, rapidité de pose, légèreté, sécurité incendie, contribution aux bonnes pratiques d’isolation thermique et acoustique.

Les caissons structurels Kerto-Ripa® utilisés sur le chantier de la MAS d’Embrun sont fermés en forme de H et mesurent 2,40 m de large. En face supérieure, le panneau structurel sert de support pour la végétalisation. Une membrane synthétique monocouche assure l’étanchéité.

Du fait de sa situation géographique dans les Hautes-Alpes, la construction de la MAS d’Embrun devait faire face à plusieurs contraintes climatiques. Le caisson Kerto-Ripa® a apporté à la Maîtrise d’Œuvre une réponse complète.

Grâce à l’intégration de l’isolant directement dans le caisson, ce système constructif renforce l’isolation du bâtiment, tout en conservant un large volume d’exploitation intérieur grâce à sa structure très mince. Afin de garantir un confort thermique optimal, 400 mm d’ouate de cellulose ont été insufflés dans les caissons Kerto-Ripa® directement sur le chantier. Le caisson a ainsi permis d’atteindre des performances thermiques de R = 9.2 m2.K/W ponts thermiques compris pour la toiture.

Les performances mécaniques du caisson Kerto-Ripa® sont également à souligner sur ce chantier. Le bâtiment nécessitait en effet d’atteindre des portées de 9 mètres en toiture et de supporter des charges permanentes importantes en raison de la végétalisation et de la neige (270 kg/m2 en moyenne, en tenant compte des accumulations), tout en assurant le contreventement de l'ouvrage.

Pour mener à bien ce projet, l’entreprise de pose en charge du lot bois, Alpes Méditerranée Charpente (AMC), a accompli un travail d’étude d’exécution important et minutieux pour valider tous les détails (calculs des caissons, raccords avec les autres éléments de structure). Les plans de préfabrication ont été réalisés à l’aide du logiciel cadwork.

Préfabriqués par Metsä Wood, les caissons ont été livrés sur le chantier avec leur sangle de levage, prêts à être montés à l’aide d’une simple grue. Au total, 800 m2 de Kerto-Ripa® ont été posés par AMC en 2 phases de 2 jours, entre l’été et l’automne 2013.

L’utilisation des caissons a notamment permis à l’entreprise AMC de réduire le temps de pose initialement prévu.

La Maison d’Accueil Spécialisée à destination des personnes handicapées à Embrun sort de terre…

Coût prévisionnel de l’opération :

5.5 millions d’euros TTC financés par les PEP 05, la commune d’Embrun, l’Agence Régionale de Santé, le CNSA, le conseil régional, le conseil général, la Mutuelle générale de l’Education Nationale (MGEN), le CCAH et un emprunt de l’association auprès de la Caisse des Dépôts et Consignations.

Livraison prévue : Été 2014 Surface SHON : 2 190 m2

Maître d’Ouvrage : PEP des Hautes Alpes

Immeuble Les Hirondelles – 3 rue des Marronniers - 05000 Gap Christian BRUN Tél : 04 92 53 39 97 / Email : siege@lespep05.org www.lespep05.lespep.org

Assistant Maître d’Ouvrage : AGEMO

Immeuble Le Rafale - Zone d'Activités de l'Aéroport 145 impasse John Locke 34470 PEROLS Tél : 04 67 20 35 03 - Fax : 04 67 20 25 21

Maître d’Œuvre Architecte mandataire : SOLEA VOUTIER & ASSOCIES ARCHITECTES SCOP 3 place de Fontreyne – 05000 Gap Jérôme VOUTIER Tél : 04 92 54 18 94 / Email : archi@voutier.fr www.solea-architectes.com

Bureau d’études Structure Bois : GAUJARD TECHNOLOGIE SCOP « Le Sirius » - 355 rue Pierre Seghers - 84000 Avignon Maggy DUCEAU Tél: 04 90 86 16 96 / Email : contact@bet-gaujard.com www.bet-gaujard.com

Entreprise de charpente : ALPES MEDITERRANÉE CHARPENTE Les Hodouls - 05600 Saint Crépin Rémi FILY

Tél : 04 92 20 22 45 / Email : remi.fily@amc05.fr www.alpes-mediterranee-charpente.fr

Entreprise METSÄ WOOD

Division construction Immeuble le Doublon – Bât. A - 11, avenue Dubonnet – 92407 Courbevoie cedex Xavier COLIN, Responsable Systèmes / Projets Tél: 01 41 32 36 36 / Email : xavier.colin@metsagroup.com www.metsawood.com

© Solea Voutier & Associés Architectes

© Solea Voutier & Associés Architectes

Nuit - Exposition au Jardin des Plantes, 12 février au 3 novembre 2014

$
0
0
Nuit -  Exposition au Jardin des Plantes, 12 février au 3 novembre 2014

Nuit - Exposition au Jardin des Plantes, 12 février au 3 novembre 2014

Que se passe-t-il durant la nuit, dans le ciel et dans la nature ?

L’exposition, conçue par le Muséum national d’Histoire naturelle, explore le monde de la nuit sous tous ses aspects, mobilise des savoirs scientifiques pluridisciplinaires : astronomie, biologie, éthologie, physiologie, anthropologie, neurologie et évoque également le monde de l’imaginaire au travers des divinités, des mythes et des monstres...

Elle met en valeur un large éventail des collections zoologiques du Muséum. Plus de 350 spécimens sont présentés : mammifères, oiseaux, serpents, amphibiens, papillons, etc. Ils ont été sélectionnés pour la plus grande partie dans les collections, une cinquantaine ont été réalisés spécialement pour l’exposition dans les ateliers de taxidermie.

La scénographie restitue l’ambiance de la nuit. Tout concourt à immerger le visiteur dans le monde à la fois poétique et mystérieux de la nuit. Le parcours commence sous un ciel étoilé, se prolonge par une balade dans une forêt fictive peuplée d’animaux nocturnes en pleine activité, s’achève sur un espace de quiétude sur le sommeil et l’évocation de quelques monstres inoffensifs.

Les dispositifs interactifs interpellent les visiteurs. Le long du parcours, des dispositifs multimédias, sonores, olfactifs, des quiz... impliquent et questionnent. Des fiches pratiques, accessibles par téléchargement via des QR codes, ou sur le site de l’exposition nuit.mnhn.fr, donnent des clefs pour repérer les constellations, des conseils pour préparer une balade nocturne ou une bonne nuit de sommeil.

Le fil rouge : les pollutions lumineuses.

Le thème de la nuit permet d’aborder la menace que constituent les pollutions lumineuses. En plus de la disparition du ciel étoilé, de nombreuses espèces nocturnes (papillons de nuit, oiseaux, mammifères, etc.) sont perturbées, piégées ou repoussées par la puissance et la permanence des éclairages nocturnes. Ce phénomène, aujourd’hui étudié par les écologues, affecte les cycles biologiques des animaux (et le nôtre) régulés par l’alternance jour/nuit, les comportements migratoires et les relations proies-prédateurs. Ce thème est abordé, tel un fil rouge, dans les différentes parties de l’exposition.

Nuit -  Exposition au Jardin des Plantes, 12 février au 3 novembre 2014

La première partie de l’exposition présente au visiteur les bases d’une astronomie observable à l’œil nu et les éléments de compréhension du ciel nocturne. Dans chacun des 3 modules : “Pourquoi fait-il nuit ?”, “La Lune”, “Les étoiles”, une vitrine consacrée aux mythes présente 4 ou 5 objets symboliques des représentations de la nuit et des astres, à travers le monde et les civilisations.

Qu’est-ce que la nuit ?

La nuit est le moment entre le coucher et le lever du Soleil. Un grand mobile Terre-Soleil, illustrant l’alternance jour/nuit permet de répondre à deux questions essentielles :

Pourquoi le Soleil se couche-t-il chaque soir ?

Le Soleil ne se couche pas et ne se lève pas. C’est la Terre qui tourne sur elle-même et pendant qu’une moitié est éclairé par le Soleil, l’autre se trouve dans l’ombre : c’est la nuit.

La Terre tournant sur elle-même en 24 heures environ, chaque nuit devrait durer 12 heures.

Pourquoi la durée de la nuit change-t-elle au cours de l’année et en fonction de la latitude ? Ces différences sont dues à l’inclinaison de l’axe de rotation de la Terre, mais aussi à sa rotation autour du Soleil. À l’équateur, nuit et jour sont toujours égaux. A u-delà, la durée de la nuit varie selon la saison et selon l’endroit où l’on se situe. Plus on se trouve proche des pôles, plus la durée des nuits varie.

Il n’y a que deux journées dans l’année où le jour égale la nuit : ce sont les équinoxes (equi = égale et noxe = nuit), autour du 21 mars et du 21 septembre. Les solstices d’été et d’hiver marquent respectivement la nuit la plus courte et la nuit la plus longue de l’année.

Pas de nuit sans Lune...

La Lune serait née d’une collision entre la Terre et une autre planète en cours de formation. Son diamètre (3 476 km) équivaut à environ 1/4 de celui de la Terre (12 756 km) et sa surface est un peu inférieure à celle du continent américain.

La Lune nous est familière

C’est l’astre le plus proche de la Terre, le seul sur lequel l’homme a mis le pied. Elle est le second astre le plus lumineux de notre ciel après le Soleil, mais elle ne brille qu’en réfléchissant la lumière de ce dernier. Satellite de la Terre, elle met exactement le même temps pour faire un tour autour de la Terre que pour faire un tour complet sur elle-même. C’est pourquoi elle nous montre toujours la même face. En octobre 1959, le satellite russe Luna 3 a pris la première photo de la face cachée de la Lune et le 24 décembre 1968, les membres de l’équipage d’Apollo 8 furent les premiers hommes à la voir directement. C’est le 21 juillet 1969 que Neil Armstrong est devenu le premier homme à marcher sur la Lune.

Quels sont les effets de la Lune ?

Le plus visible est le phénomène des marées. La Lune a aussi une influence sur le comportement de certains animaux, notamment de petits mammifères nocturnes, qui réduisent leur activité les nuits de pleine lune pour éviter de se faire repérer. Et sur l’homme ? En période de pleine Lune y a-t-il plus d’accouchements ? Nos cheveux repoussent-ils plus vite si on les coupe à la Lune montante ? Aucune corrélation fiable et significative n’a été établie.

Comment reconnaître les étoiles ?

Tout ce qui brille dans le ciel n’est pas forcément une étoile... Les étoiles sont d’énormes boules de gaz qui brûlent pendant des milliards d’années et émettent de la lumière. La plus proche de nous est le Soleil. Les autres étoiles de notre ciel sont bien plus loin.

Les planètes, comme la Terre, ne produisent pas de lumière ; elles nous renvoient, comme la Lune, la lumière du Soleil. Et quand on parle de l’étoile du Berger, c’est en fait de la planète Vénus dont il s’agit ! Les étoiles filantes ne sont pas non plus des étoiles mais de simples poussières qui s’embrasent en entrant dans notre atmosphère à très grande vitesse. Il ne faut pas les confondre avec un avion, l’ISS (station spatiale internationale) ou les antennes d’un satellite qui réfléchissent la lumière du Soleil..Petite Ourse, Grande Ourse, Cassiopée

Ces formes familières dans le ciel sont appelées constellations. Ce sont des figures, imaginées par les hommes depuis l’Antiquité, regroupant les étoiles et permettant de se repérer.

La Voie lactée

Toutes les étoiles que nous voyons à l’œil nu appartiennent à notre galaxie, la Voie lactée. Elle contient entre 200 et 400 milliards d’étoiles et chacune de ces étoiles est potentiellement un soleil autour duquel tournent des planètes... Dans l’hémisphère nord, une autre galaxie est visible à l’œil nu — dans de très bonnes conditions — c’est la galaxie d’Andromède.

En 2025 verra-t-on encore le ciel étoilé ?

Théoriquement, on peut voir des milliers d’étoiles à l’œil nu, depuis la Terre, dans un ciel bien dégagé (3000 dans l’hémisphère nord, 6110 pour les deux hémisphères). La plupart des gens ne voient pourtant qu’une étoile sur 10 à cause des éclairages urbains trop puissants et mal orientés. Aujourd’hui, près de 20% de la surface du globe est atteinte par la pollution lumineuse, notion apparue dans les années 1980. Les halos lumineux progressent d’environ 5% par an en Europe

et masquent aujourd’hui la vision de 90% des étoiles dans les métropoles. En France, seuls, en haute montagne, un petit triangle dans le Quercy et une partie de la Corse ne sont pas envahis par les lumières.

+ Pour limiter les nuisances lumineuses et la consommation d’énergie, l’arrêté du 30 janvier 2013 règlemente les dispositifs d’éclairage des bâtiments non résidentiels. Il est entré en vigueur le 1er juillet 2013.

developpement-durable.gouv.fr

Nuit -  Exposition au Jardin des Plantes, 12 février au 3 novembre 2014

La vie nocturne dans la nature

Comment fonctionne la bioluminescence ?

Cette partie, la plus importante spatialement, immerge les visiteurs dans une forêt fictive, habitée par 250 spécimens d’animaux du monde entier, couvrant toute la diversité des espèces nocturnes. Tout au long de la déambulation, quatre espaces “sensoriels”, dotés de nombreux dispositifs interactifs, sonores, olfactifs et multimédias, dévoilent les différentes stratégies et adaptations à la vie nocturne.

Pourquoi certains animaux vivent-ils la nuit ?

Pour la sécurité

Vivre la nuit est une façon d’éviter de nombreux prédateurs diurnes et d’être moins visible... mais certains prédateurs sont également adaptés à la vie nocturne : chouettes et hiboux, aux oreilles affûtées, repèrent les bruissements des petits rongeurs sur les feuilles, le crotale détecte la chaleur de ses proies par ses organes thermosensibles et le vol silencieux des papillons de nuit n’échappe pas au système d’écholocalisation des chauves-souris...

Pour la fraîcheur de la nuit...

De nombreux animaux, surtout dans les régions chaudes, préfèrent les conditions de la nuit : fraîcheur, absence des rayons directs du soleil et taux d’humidité plus élevé sont nettement plus supportables.

Pour se nourrir

De nombreux papillons nocturnes consomment le nectar des mêmes fleurs que leurs cousins diurnes. La nuit offre ainsi un deuxième service ! Même tactique pour l’hippopotame qui broute les mêmes herbes que l’antilope ou le zèbre, qui eux sont diurnes.

Galerie de portraits d’animaux nocturnes

Des silhouettes d’arbres de 3 à 4 mètres de hauteur constituent le décor spectaculaire d’une forêt où plus de 250 spécimens sont en situation, au sol ou perchés. Les collections du Muséum permettent de mettre en valeur aussi bien des espèces de nos contrées que celles de forêts plus lointaines. Les visiteurs découvriront la diversité de ces animaux nocturnes par groupes : marsupiaux, rapaces, rongeurs, chauves-souris, reptiles, amphibiens... accompagnés de petites questions, jeux, vidéos pour mieux connaître ces espèces.

Les marsupiaux

À quelques exceptions près, tous les marsupiaux sont nocturnes. Du koala au kangourou en passant par l’opossum, les 340 espèces recensées présentent une incroyable diversité de forme et de modes de vie.

Les rapaces

Moins de 3 % des oiseaux sont nocturnes et la moitié d’entre eux sont des rapaces. Les hiboux et les chouettes sont les oiseaux qui ont l’ouïe la mieux développée ; ils sont capables de capturer leur proie sans même se servir de leurs yeux.

Les engoulevents, podarges et ibijaux

Ils font partie des rares familles d’oiseaux à être principalement nocturnes ou crépusculaires. La plupart d’entre eux ont la particularité de nicher sur le sol le jour, s’activant la nuit pour chasser en plein vol les insectes dont ils se nourrissent.

Les deux tiers des oiseaux migrateurs effectuent leurs migrations de nuit Un grand nombre d’entre eux s’orientent grâce au géomagnétisme, certains utilisent même la position des étoiles pour se diriger.

Les rongeurs

Écureuils volants, pacas, porcs-épics, castors, mulots, loirs... Avec plus de 2 200 espèces, ils sont l’ordre le plus nombreux des mammifères (40%), et près de 90% d’entre eux sont nocturnes.

Les chauves-souris

Avec plus de 1 200 espèces, de plusieurs kilos à seulement 2 grammes, c’est l’ordre de mammifères le plus nombreux après celui des rongeurs. Elles représentent 1/4 des espèces de mammifères. Contrairement aux idées reçues, elles ne sont pas toutes nocturnes et ne pratiquent pas toutes l’écholocalisation...

Les insectivores

Hérissons, musaraignes, taupes, tenrecs... les insectivores sont pour la plupart de petits mammifères nocturnes et terricoles. La vue n’est pas leur sens le plus développé, ils comptent davantage sur leur ouïe et leur odorat, et certaines musaraignes sont même capables de faire de l’écholocalisation.

Les amphibiens

Grenouilles, crapauds, rainettes, salamandres et tritons... la plupart des amphibiens sont nocturnes et se cachent pendant la journée.

Les reptiles

Les serpents et les crocodiliens comptent de nombreuses espèces nocturnes, mais chez les lézards, seuls les geckos sont principalement nocturnes. Ces reptiles n’ont généralement pas une bonne vue, mais un bon odorat grâce à leur organe voméronasal. Certains serpents sont même capables de repérer une souris dans le noir total grâce à des fossettes thermosensibles qui détectent la chaleur émise par la proie.

Les arthropodes

Parmi plus d’1 million d’espèces recensées, on compte un bon nombre d’espèces nocturnes, principalement chez les araignées, les scorpions, les phasmes, les blattes, les grillons et sauterelles, mais aussi chez les mille-pattes. À noter : 80 % des papillons sont des papillons de nuit.

Les carnivores

Chats sauvages, civettes, loups et ours, ratons- laveurs, fouines, moufettes... Parmi les 280 espèces connues, de nombreux carnivores sont nocturnes et ont une ouïe et une vision bien supérieures aux nôtres. Ils ont aussi un odorat remarquable et utilisent des signaux chimiques excrétés dans leurs urines, fèces ou par des glandes souvent anales. Les moufettes ou les mustélidés, comme le putois, sont des champions dans ce domaine !

Poissons, ongulés, plantes nocturnes complètent cette découverte de la diversité nocturne.

Nuit -  Exposition au Jardin des Plantes, 12 février au 3 novembre 2014

Une nuit de sommeil :

Lorsque la nuit tombe, alors que certains animaux se réveillent et s’activent, d’autres vont entrer dans un état particulier : le sommeil. C’est un phénomène biologique indispensable à la vie qui n’est pas qu’un simple processus de récupération physique. Cette section de l’exposition explore les différentes façons de dormir des animaux, la notion de cycle du sommeil et la place du rêve, pour finir sur le sommeil chez l’homme.

Le “dortoir” d’animaux

Après la forêt, le paysage se poursuit plus graphique, plus onirique. Les visiteurs découvrent un ensemble d’une vingtaine de spécimens naturalisés en position de sommeil : un ours brun confortablement assoupi, un singe lascivement endormi sur une branche, des flamants roses sur une patte, une couleuvre enroulée, un martinet qui dort en planant, une maman écureuil pelotonnée avec son petit, etc. Respirations sonores et légers ronflements animent ce dortoir imaginaire dont les représentants ont été pour la plupart naturalisés pour les besoins de l’exposition. À travers ce bestiaire, nous comprenons les différentes positions de sommeil, leur mécanisme et leur intérêt.

À chacun sa position, plus ou moins confortable...

Dans la quiétude de la nuit, les animaux doivent trouver les bonnes conditions pour dormir : se sentir en sécurité, être à une température adéquate et dans une position plus ou moins confortable.

Dormir ensemble

Les animaux grégaires ont pour habitude de se regrouper pour dormir. Certains oiseaux (perroquets, aigrettes...), après une journée passée à se nourrir, en solitaire ou en petits groupes, se rassemblent sur un arbre dortoir à la tombée de la nuit.

Dormir en équilibre

La plupart des oiseaux et des grands herbivores dorment debout ou en équilibre, prêt à prendre la fuite au moindre danger. Ces positions supposent certains dispositifs anatomiques : articulation des échassiers, blocage osseux des grands herbivores, tendons verrouillés chez les passereaux. Des animaux qui passent la nuit dans les arbres, comme les babouins, dorment en position instable et le moindre mouvement de la branche par un prédateur potentiel les réveillera.

Dormir en se déplaçant

Parce qu’ils ne peuvent se poser comme les martinets, qu’ils doivent effectuer un long voyage sans possibilité de s’arrêter comme les sternes ou qu’ils sont obligés de remonter régulièrement à la surface pour respirer comme les cétacés, certains animaux ne s’arrêtent pas pendant leur sommeil. La solution : dormir d’un demi-cerveau à la fois ou faire du microsommeil.

Dormir confortablement

Dormir dans un lit n’est pas l’apanage de l’homme. De nombreux animaux cherchent ou se confec- tionnent un endroit douillet et sécurisant pour dormir en paix : véritables hamacs ou lits de feuilles pour les grands singes, terrier de la marmotte, enveloppe de mucus secrétée par le poisson perroquet, etc.

Repos ou sommeil : tous les animaux dorment-ils ?

Tous les animaux connaissent des périodes de repos dans une posture particulière mais seuls les oiseaux et les mammifères connaissent un véritable sommeil, présentant les deux phases caractéristiques : le sommeil lent et le sommeil paradoxal. Le sommeil n’est pas un état uniforme, il est constitué d’une succession de cycles de

90 à 120 min - chez l’homme -, avec des phases se succédant toujours dans le même ordre : quatre phases de sommeil lent (endormissement, sommeil léger, sommeil lent profond, sommeil profond) et une phase de sommeil paradoxal, terminée par une phase de pré-réveil très courte. Le sommeil lent, au cours duquel le cerveau est peu actif, est économe en énergie et vital pour la régénération de l’organisme. Lors du sommeil paradoxal, le cerveau est extrêmement actif. C’est le temps des rêves.

À chacun son sommeil

Les durées de sommeil et les durées des phases (sommeil lent, sommeil paradoxal) varient selon les espèces. Les animaux disposant d’un refuge sûr dorment plus et présentent des cycles plus longs que ceux qui vivent dans des conditions précaires. Les herbivores, qui doivent consommer chaque jour une grande quantité de nourriture car

elle est peu énergétique, ont un sommeil plus fragmenté qu’un carnivore qui, de plus, peut jeûner plusieurs jours entre chaque repas. La girafe dort peu, à peine 4 heures par jour et surtout debout. Quant au chat domestique, prédateur, carnivore, solitaire, avec 20 heures de sommeil, il fait partie des champions des dormeurs.

Le sommeil évolue au cours de la vie, en durée et en qualité

Déjà dans l’œuf ou dans le ventre de sa mère, le poussin ou le fœtus montre des signes de phases de sommeil et d’éveil. Lorsque le petit naît, il passe environ 90% de son temps à dormir. Mais on ne dort pas de la même façon au cours de la vie : chez les oiseaux comme chez les mammifères, la quantité de sommeil paradoxal est environ cinq fois plus élevée chez le petit qu’à l’âge adulte. Et avec l’âge, le sommeil perd peu à peu en qualité et quantité.

Et vous, quel dormeur êtes-vous ?

Après une bonne nuit... tout va mieux, mais encore faut-il avoir eu un sommeil de qualité. Il faut savoir écouter son horloge biologique qui nous avertit de notre besoin de sommeil. La tombée de la nuit est aussi un signal pour l’organisme. Malgré ces signaux, les perturbations sont multiples : retard de l’endormissement provoqué par la lumière des différents écrans, une chambre trop chaude ; insomnie, terreur nocturne, somnambulisme. Savez-vous ce qu’il faut faire ou ne pas faire pour bien dormir ? La nuit porte-t-elle conseil ? Et à quoi rêvez-vous ? Des dispositifs interactifs permettent aux visiteurs de réponse à ces questions et de pouvoir raconter leurs rêves... qui resteront anonymes.

Le capteur de rêves suspendu au-dessus du lit du dormeur, il retient les cauchemars dans sa toile d’araignée. Seuls les bons rêves parviennent à redescendre jusqu’au dormeur.

Nuit -  Exposition au Jardin des Plantes, 12 février au 3 novembre 2014

Loups-Garous, vampires et autres croque-mitaines... d’où viennent ces créatures de la nuit qui peuplent notre imaginaire ?

Au cours d’une nuit de sommeil peuplée de rêves... surgissent les créatures de la nuit, monstres cachés dans le noir, sous le lit, dans le placard. Courtes séquences de films, grimoires et jeux d’ombres témoignent de la force des imaginaires d’où sont nés vampires, croquemitaines et autres loups-garous.

Les monstres de la nuit, effrayants ou imaginaires ?

La nuit et son obscurité, ses mystères, le sentiment d’insécurité qu’elle peut générer, ont créé de sombres personnages et ont terni la réputation des loups, chouettes, hiboux et chauves-souris. La tradition orale, la littérature et le cinéma

ont abondamment mis en scène les frayeurs nocturnes. De tous les monstres de la nuit, les vampires et les loups-garous sont les plus connus. Héros de romans, de cinéma ou de séries télévisées, ils sont devenus presque familiers : de Nosferatu à Twilight, du loup-garou de Londres au lapin- garou de Wallace et Gromit.

Croque-mitaine, loup-garou et vampire

Le croque-mitaine est un monstre qui fait peur au moment de se mettre au lit. On le rencontre dans toutes les cultures sous des formes différentes (humaine, monstrueuse, animale). Il peut agir dehors ou dans la chambre, être à la recherche d’enfants ou se contenter d’attendre qu’ils soient endormis pour les attraper. Pour ne pas avoir affaire à lui, il faut être sage, bien dormir, et se tenir à l’écart des situations dangereuses.

Le statut du loup-garou est plus complexe. C’est un humain qui, par malédiction ou par choix, peut se transformer en loup à la tombée de la nuit ou les soirs de pleine lune.

Il apparaît dans les légendes depuis l’Antiquité. La peur du loup entretenue depuis le Moyen Âge, certaines maladies psychiques ou bien physiques notamment l’hypertrichose – c’est-à-dire un développement de la pilosité – ont forgé cette créature, mi-homme, mi-animal. Selon les cultures, les garous prennent la forme de l’animal le plus redouté. En Occident c’est un loup mais ce peut être un crocodile en Asie, ou un coyote au Mexique...

Quant au vampire, c’est un mort-vivant immortel. Il est pâle, se nourrit de sang et peut prendre des formes diverses pour tromper la vigilance des hommes : se changer en loup ou en chauve- souris, deux animaux dont la dangerosité a été nourrie par les naturalistes, notamment par Buffon. Chaque culture a ses vampires : en Occident, Dracula est le plus connu, héros du roman à succès de Bram Stoker et de nombreux films. Pour se débarrasser d’un vampire, les remèdes sont connus : de l’ail, du gros sel, de l’eau bénite, un crucifix et un pieu pour lui transpercer le cœur.

Jeux d’ombres

Avant de quitter le monde de la nuit, un espace ludique dédramatise les peurs nocturnes : on joue aux ombres chinoises et la nuit devient un tableau noir propice à la création.

Nuit -  Exposition au Jardin des Plantes, 12 février au 3 novembre 2014
Nuit -  Exposition au Jardin des Plantes, 12 février au 3 novembre 2014

Pensée du Jour

$
0
0
Pensée du Jour

Pensée du Jour

« Ne crache pas dans l'eau du puits, tu seras peut-être obligé d'en boire. »

Ivan Andreïevitch Krylov 1769 - 1844

Quelles mesures pour le projet de loi sur l'adaptation de la société au vieillissement ?

$
0
0
Quelles mesures pour le projet de loi sur l'adaptation de la société au vieillissement ?

Quelles mesures pour le projet de loi sur l'adaptation de la société au vieillissement ?

Ce projet de loi dont le coup d’envoi a été donné, en novembre 2013, par le lancement des concertations menées par Michèle Delaunay, ministre déléguée chargée des Personnes âgées et Marisol Touraine, ministre des Affaires sociales et de la Santé avec un panel d’acteurs du médico-social, les départements et collectivités territoriales, les partenaires sociaux, mais aussi avec les acteurs du logement, des transports, de l'urbanisme, de la citoyenneté et de la silver économie vient de franchir une nouvelle phase.

Ainsi, pendant deux mois, pas moins de 80 réunions ont été organisées, rassemblant plus de 500 participants et une trentaine de contributions versées au débat. Ces échanges constructifs qui ont associé très étroitement l'Assemblée des Département de France, ont permis d’enrichir et finaliser le texte du projet de loi qui sera dans les tout prochains jours transmis au Conseil Economique, Social et Environnemental (CESE), pour une présentation en Conseil des ministres le 9 avril et un dépôt au Parlement au printemps. Ainsi le projet de loi pourra-t-il être adopté avant la fin de l’année 2014, conformément à l’engagement qui a été pris devant les Français.

Parce qu'en 2060, un tiers des Français aura plus de 60 ans, ce projet de loi repose sur trois piliers indissociables, les fameux trois A :

- l’anticipation, pour prévenir la perte d’autonomie de façon individuelle et collective

- l’adaptation de notre société tout entière à l’avancée en âge

- l’accompagnement de la perte d’autonomie, avec pour priorité de permettre à ceux qui le souhaitent de rester à domicile dans de bonnes conditions le plus longtemps possible.

Cette loi est une première étape législative. La deuxième étape de la réforme, dont la mise en œuvre est prévue pour la seconde partie du quinquennat, portera sur l’accompagnement et la prise en charge en établissement. Elle intègrera des mesures permettant de réduire le reste à charge des résidents en EHPAD.

Les principales mesures

Jean-Marc Ayrault a choisi Angers classée "Ville Amie des Aînés" par l'Organisation Mondiale de la Santé pour dévoiler les grandes orientations de la loi.

► Améliorer l’accès aux aides techniques et aux actions collectives de prévention
Aménager son domicile et recourir à la téléassistance et à la domotique sont des moyens souvent simples de prévenir chutes et perte d’autonomie. 140 millions seront consacrés à ce volet prévention et à l'aménagement du domicile.

► Développer des politiques de l’habitat et de l’urbanisme prenant mieux en compte l’avancée en âge et lancer un plan national d’adaptation de 80 000 logements d’ici 2017.

► Donner un nouveau souffle aux foyers-logements, rebaptisés Résidences Autonomie, grâce à la **création d’un "forfait autonomie", qui permettra de renforcer leurs actions de prévention, pour un montant de 40 millions d’euros. Et de manière inédite l’Etat participera à la rénovation des foyers-logement, via un Plan exceptionnel d’aide à l’investissement de 40 millions d’euros qui s’ajouteront aux 10 millions d’euros déjà dégagés en 2014.

► Poser un acte II de l’APA à domicile : près d'1,2 million de personnes bénéficient de l'APA dont 60% vivent à leur domicile. Le Gouvernement souhaite :

- une APA plus généreuse : les plafonds d’aide mensuels de l’APA seront revalorisés de 400 euros en GIR 1, de 250 euros en GIR 2, de 150 euros en GIR 3 et de 100 euros en GIR 4. Cette revalorisation touchera donc tous les bénéficiaires de l’APA, quel que soit leur degré de dépendance.

- une APA plus accessible grâce à la diminution du reste à charge qui pèse aujourd'hui sur
les âgés et leurs familles. Aucun bénéficiaire de l’allocation de solidarité aux personnes âgées (ex minimum vieillesse) n’acquittera plus, désormais, de ticket modérateur.

- une APA plus qualifiée, grâce à la professionnalisation des aides à domiciles, l’amélioration de leurs conditions de travail, la lutte contre la précarisation des salariés et à une meilleure prise en compte de leurs frais professionnels. 25 millions d’euros y seront consacrés chaque année.

Au total, 375 millions d'euros supplémentaires seront consacrés à l'APA chaque année.

► Reconnaître le rôle des aidants en créant une aide au "répit"

4,3 millions de personnes aident régulièrement au moins un de leurs proches âgé de 60 ans ou plus à domicile, "parfois au prix de leur propre équilibre ou de leur santé" a souligné le Premier ministre. "La loi consacre ainsi une aide au répit, afin de permettre à l'aidant de s'absenter quelques jours en garantissant que le relais sera pris auprès de l'aidé. D'un montant qui pourra aller jusqu'à 500 euros annuels au-delà du plafond de l'APA, cette aide permettra par exemple de financer sept jours de séjour dans un hébergement temporaire."


RT 2012 et PHPP : Audition à l’Assemblée Nationale afin de corriger le tir pour ne pas freiner l’innovation ?

$
0
0
RT 2012 et PHPP : Audition à l’Assemblée Nationale afin de corriger le tir pour ne pas freiner l’innovation ?

RT 2012 et PHPP : Audition à l’Assemblée Nationale afin de corriger le tir pour ne pas freiner l’innovation ?

Un logiciel réglementaire moins précis que le PHPP

La Réglementation Thermique 2012 a instauré une nouvelle version du logiciel réglementaire, pour permettre aux maîtres d’œuvre et entreprises de respecter les nouvelles contraintes imposées, notamment une meilleure prise en compte de la conception bioclimatique. Concrètement, le logiciel doit permettre d’envisager et comparer les choix techniques (notamment thermiques) dès la phase de conception.

Problème : les données sur lesquelles s’appuient ses calculs sont conventionnelles, c’est-à-dire purement théoriques et, de l’avis général, peu précises.

Second problème : l’instauration d’un moteur de calcul unique et exclusif a pour conséquence d’exclure ou de compliquer la tâche des autres logiciels de conception. C’est notamment le cas du PHPP, pourtant beaucoup plus précis dans son anticipation des usages énergétiques.

Alors coup d’œil sur le PHPP :

Le PHPP (Passive House Planning Package) est à la "maison passive" ce que les deux roues sont au vélo : il permet non seulement de concevoir l’habitation pour s’assurer qu’elle respectera les très faibles consommations énergétiques recherchées, mais en plus c’est aussi l’outil de validation de la construction et qui sert de base pour l’attribution d’une certification (Passivhaus Institut Darmstadt, Plateforme Maison Passive belge, La Maison Passive en France, etc...)

Le PHPP est constitué d’un logiciel, facile d’emploi puisque programmé sous Microsoft Excel et d’un gros manuel, qui n’est pas gros parce que le logiciel est compliqué, mais parce qu’il permet à l’occasion de la description du logiciel de revenir sur de nombreux aspects pratiques de la "construction passive". Donc le PHPP, c’est bien plus un "outil de conception" qu’un seul programme : c’est un outil d’accompagnement à la conception passive.

Le logiciel qui n’est pas à proprement parler un outil de simulation dynamique, puisqu’il utilise la méthode d’approximation mensuelle, a été validé conceptuellement par la simulation dynamique et dans la pratique par plus de 200 constructions dont les consommations énergétiques ont été passées au peigne fin sur de nombreuses années, ce qui permet de confirmer par l’expérience la justesse des résultats que fournit le système.

Le PHPP est "L"’outil de la maison passive par excellence. Il est plus simple d’utilisation qu’un logiciel de simulation dynamique (et plus rapide dans la "virtualisation" de la conception). Cela dit, même s’il est relativement simple, il faut quand même "entrer" la construction correctement. Sinon, les résultats risquent d’être décevants.

Le logiciel est basé sur les normes européennes, notamment l’EN 10077, l’EN 673, l’EN 410, l’EN 13790, etc...

Corriger le tir pour ne pas freiner l’innovation ?

C’est pourquoi, 2 ans après le lancement du logiciel, l’Office parlementaire d’évaluation des choix scientifiques et technologiques (OPECST) organise une audition publique des acteurs de l’innovation dans le bâtiment intitulée ‘’Economies d’énergie dans le bâtiment : comment le moteur de calcul réglementaire intègre-t-il l’innovation ?’’

L’Office a pour objectif d’identifier les freins qui empêchent les composants et les équipements porteurs d’innovation, donc par définition dotés de caractéristiques inédites, d’être intégrés au calcul RT 2012.

Le témoignage de La Maison Passive

La Maison Passive vous donne donc rendez-vous jeudi 13 février matin pour assister à l’audition publique à l’Assemblée Nationale. Etienne Vekemans, Président de La Maison Passive, apportera son expertise dans le cadre de l’intervention « Les modalités de gestion d’un moteur de calcul » à partir de 9h20.

Il exposera en quoi le PHPP est un logiciel propice à l’innovation, notamment grâce à une intégration facilitée des nouveaux produits par rapport au logiciel THBCE.

Le PHPP est un outil clairement structuré qui peut être utilisé directement par les concepteurs et les architectes.

Le PHPP possède des outils pour :
— calculer des valeurs U des composants de forte isolation thermique.
— calculer des bilans énergétiques.
— concevoir la ventilation de confort.
— calculer la charge de chaleur.
— calculer le confort d’été. et beaucoup d’autres outils pratiques pour une conception maison passive d
e qualité.

La version actuelle, PHPP2004 possède les feuilles de calcul suivantes :

— Vérification du bâtiment passif : sélection de la méthode de calcul, résumé des résultats.
— Surfaces : feuille centrale d’entrée des données de l’enveloppe. Pour une plus grande clarté, les données sont automatiquement consolidées en groupes de surfaces et leurs pertes thermiques sont résumées. Les valeurs U sont sélectionnées par le biais d’un menu pull-down. Cela simplifie grandement la gestion des données. Les ponts thermiques et la surface de référence sont aussi entrés ici.
— Liste des valeurs U : résultats des calculs de la feuille "Valeurs U" et base de données des éléments de construction.
— Valeurs U : feuille de calcul des valeurs U des éléments de construction. Les calculs de transmission thermiques sont basé sur EN ISO 6946, en y incluant les composants angulaires ainsi que les composants composites du style construction bois.
— Sol : calcul des pertes thermiques par le sol, basé sur les algorithmes de EN 13370 qui ont été revus et complétés. La feuille de calcul inclut des algorithmes qui traitent le cas des ponts thermiques ainsi que les effets de l’eau sous-terraine.
— Fenêtres : détermination de Uw et de la radiation extérieure, en considérant les effets de la géométrie, de l’orientation, des propriétés thermiques du vitrage et du chassis, des coefficients de ponts thermiques ainsi que du climat.
— Fenêtres types : liste des vitrages et des chassis ainsi que de leurs caractéristiques. Contient une base de donnée de composants maison passive.
— Ombrage : détermination de l’ombrage en considérant les balcons, casquettes et constructions voisines.
— Ventilation : dimensionnement du système de ventilation à partir des besoins en air frais, des valeurs d’infiltration et de celles de la récupération de chaleur. Entrée des résultats des tests de pressurisation.
— Besoin de chaleur de chauffage : calcul du besoin annuel de chauffage, selon les procédures de bilan thermiques d’après EN 832 (méthode annuelle). La feuille de travail montre un bilan énergétique clairement structuré.
— Méthode mensuelle : calcul du besoin en chaleur annuel selon la méthode mensuelle EN 832, présentation graphique du bilan mensuel.
— Puissance de chauffage : calcul de la puissance de chauffage nominale du bâtiment utilisant une méthode simple appropriée aux maisons passives. Une technique pour vérifier si la sortie thermique du système central de fourniture de chaleur est suffisant pour les pièces critiques a été rajouté.
— Eté : calcul de la fréquence de surchauffe d’été en tant que valeur de confort d’été.
— Ombrage d’été : détermination des facteurs d’ombrage pour l’été.
— Ventilation estivale : estimation des flux d’air nécessaires à la ventilation estivale "naturelle".
— ECS + distribution : calcul des pertes de chaleur du système de distribution (chaleur, ECS). Calcul des besoins en ECS habituels ainsi que leurs pertes de stockage.
— ECS solaire : calcul de la fraction d’ECS fournie par le système solaire.
— Electricité : calcul de l’électricité domestique ansi que de l’énergie primaire consommée par le bâtiment.
— Electricité auxiliaire : calcul de l’électricité et des besoins en énergie primaire des auxiliaires (pompes de circulation etc...)
— Calcul EP : sélection des générateurs de chaleur, calcul de l’énergie primaire et des rejets de Co2 associés.
— Systèmes compacts : calcul de la performance d’une unité compacte utilisant une pompe à chaleur pour le chauffage et/ou l’ECS aux conditions limites du projet.
— Chaudière : calcul de la performance de la production de chaleur à base d’une chaudière classique (basse température ou à condensation, au gaz, au fioul ou au bois) aux conditions limites du projet.
— Chauffage urbain : calcul des besoins en énergie finale et en énergie primaire dans le cadre de la cogénération.
— Données climatiques : les données climatiques peuvent être selectionnées parmi plus de 200 localisations en Europe et aux USA.
— Apports internes : calculs des apports de chaleur internes.
— Données
: tables de coefficient d’énergie primaire, etc..

Pas forcément si idéal le chauffage par le sol !

$
0
0
Pas forcément si idéal le chauffage par le sol !

Pas forcément si idéal le chauffage par le sol !

Si le plancher chauffant constitue une technologie très courante actuellement notamment dans les nouvelles constructions ou dans les rénovations d’envergure pour des questions de confort et d'économie d'énergie, et aussi pour des raisons d’une technique maîtrisée et efficace, Il s’avère, dans certains cas, incommodant ou énergivore à cause, principalement, de sa grande inertie.

Dans les bâtiments peu isolés et occupés de façon assez intensive, une inertie importante ne pose généralement pas de problème. Par contre, elle peut être à l'origine de surchauffes dans des bâtiments peu déperditifs, surtout quand il existe un apport solaire ou des apports internes importants. Par exemple, lors de belles journées de mi-saison, l'inertie du chauffage sol d'un plateau de bureaux largement vitré et ensoleillé fera en sorte que le sol apportera encore des calories bien que la température de consigne intérieure soit atteinte et que le chauffage soit coupé. On se retrouve dès lors dans une situation paradoxale : pour éviter la surchauffe, on ouvre les fenêtres ou, pire, la climatisation est mise en service.

Afin de limiter les risques de surchauffe, l’inertie thermique du plancher chauffant devra être la plus faible possible. Cette règle ne s’applique pas aux murs et plafonds non actifs (dépourvus d’éléments chauffants) car ils contribuent à « lisser » les variations thermiques. Pour limiter la surchauffe, on prévoira surtout des protections solaires efficaces.

L’inertie de ce genre de chauffage s’avère également gênante dans les bâtiments occupés de manière sporadique. En effet, il n’y est pas toujours facile d’anticiper les besoins en chaleur et de les gérer avec ces systèmes peu réactifs. Par exemple, dans une salle des fêtes : les horaires d'occupation sont généralement très irréguliers et parfois imprévisibles, il sera donc difficile d'anticiper de manière suffisamment précise l'heure optimale de la relance. En pratique, ceci risque de se traduire par le maintien d'un chauffage permanent.

De façon analogue, des occupations ponctuelles et régulières ne sont pas non plus optimales pour des systèmes inertiels. Par exemple, pour une bibliothèque communale occupée quelques heures réparties sur plusieurs jours de la semaine, il serait nécessaire, avec un chauffage sol inertiel, d'anticiper le fonctionnement du chauffage et, au final, de chauffer sur une période sensiblement plus importante que la durée d'occupation réelle. Dans ce cas, on ne réalisera certainement pas d'économies d'énergie.

Enfin, lorsque le plancher chauffant est placé au-dessus d'espaces non chauffés (caves ou vides ventilés, par exemple), les déperditions vers ces espaces seront plus importantes du fait de la température du sol. Ces déperditions pourront cependant être limitées par une isolation performante préalable à la pose du chauffage.

Il faut cependant préciser qu'un chauffage par le sol se combine idéalement avec un système de pompe à chaleur ou des chaudières à condensation car ce type d'émission permet de travailler avec des températures d'eau très basses. La pompe à chaleur ne devra pas vaincre une différence de température trop importante et sera donc performante, tandis que les retours "froids" favoriseront la condensation dans les chaudières exploitant cette technologie.

Récemment, de nouveaux systèmes de chauffage sol à faible inertie ont vu le jour. L’inertie de ces systèmes (± ½ heure) se rapproche plus d’un système de chauffage par radiateur et se distancie donc nettement des chauffages sols inertiels (plusieurs heures), ce qui évite la plupart des désagréments précités dans les cas spécifiques envisagés.

S’inscrivant dans un souci constant d'amélioration du confort en toutes saisons, a conduit au développement des systèmes de planchers chauffants/rafraîchissants aussi communément appelés planchers réversibles.

Le plancher chauffant/rafraîchissant assure deux fonctions :

􀂉 le chauffage en hiver,

􀂉 le rafraîchissement en été.

Ainsi, avec un fluide chaud, le plancher se comporte en émetteur l'hiver, et avec de l'eau rafraîchie en absorbeur durant l'été.

La technique du plancher rafraîchissant n’est en aucun cas un dispositif de climatisation mais plutôt un système permettant d’apporter un certain confort en abaissant la température ambiante de 3 à 5 K.

Mais là aussi, certaines recommandations doivent être prises en compte. Notamment sur l’inertie de la construction. Il est préférable que l’inertie du bâtiment soit forte. Pour les constructions sans inertie (type bardage double peau), l’efficacité du rafraîchissement n'est pas garantie.

Sur la surface de vitrage. Il faut que les surfaces de vitrage par rapport aux surfaces des murs extérieurs ne soient pas trop importantes (<20% de la surface des murs en limitant les expositions sud-sud ouest).

S’agissant de la protection solaire. L'usage estival des volets, stores et autres masques susceptibles d'équiper les ouvrages sont à conseiller à l'utilisateur, soucieux de son budget énergétique et de son confort.

Il est, par conséquent, indispensable d'occulter par l'extérieur les baies vitrées exposées à l'ensoleillement pour une meilleure protection contre les apports externes.

3ème appel à projets «Bepos/Bepas» de l’Ademe Ile-de-France

$
0
0
3ème appel à projets «Bepos/Bepas» de l’Ademe Ile-de-France

3ème appel à projets «Bepos/Bepas» de l’Ademe Ile-de-France

Après le succès des deux premières sessions de l’appel à projets Bâtiments à Energie Positive (BEPOS) et Bâtiments Passifs (BEPAS), la Direction régionale Ile-de-France de l’ADEME a lancé le 12 février une troisième session.

L’objectif étant de soutenir de nouvelles opérations anticipant la Réglementation Thermique 2020 (RT 2020). Cette nouvelle session, dont la clôture est fixée au 28 avril 2014, s’adresse exclusivement aux projets de construction de logements collectifs et de bâtiments tertiaires publics et privés qui représentent les secteurs ayant les plus forts enjeux en matière de consommation d’énergie et d’émission de gaz à effet de serre en Ile-de-France.

Les projets qui seront retenus par le Jury devront constituer, à l’échelle de la région, de nouvelles références convaincantes, aux coûts maîtrisés et aisément reproductibles. Ils viendront s’ajouter aux projets déjà soutenus dans le cadre des deux premières sessions de l’appel à projets.

18 projets ont été sélectionnées dans le cadre de la seconde session :

3 groupes scolaires à Gennevilliers, Bussy-Saint-Georges et Rosny-Sous-Bois ;

1 école maternelle à Melun ;

1 collège à Torcy ;

1 centre socio-éducatif à Limeil-Brévannes ;

1 lieu d’accueil et des bureaux à Bondy (la maison de l’association SOS Femmes 93) ;

3 projets de logements sociaux portés par Logement Francilien et à Montreuil pour des opérations portées par OSICA et l’OPH Montreuillois ;

2 résidences étudiantes dont une à Guyancourt portée par Expansiel et une à Paris portée par la Région Ile-de-France ;

6 opérations de construction de logements en accession : porté par BE SMART à Bures-sur-Yvette, par Passilogis à Montfermeil, par Douce Frange à Réau, par Bouygues Immobilier à Nanterre et Chanteloup les Vignes et par Nexity à Montreuil.

Ces opérations lauréates pourront bénéficier d’une aide financière totale maximale s’élevant à 70 €/m²SHON RT.

Rappel : la SHON RT est la somme des surfaces de plancher de chaque niveau de la construction après déduction des surfaces de locaux sans équipements de chauffage.

Appel à projets - Session 3 - Règlement

_BEPOS : Bâtiments à Energie Positive

_BEPAS : Bâtiments Passifs

Les objectifs techniques fixés sont principalement la maîtrise des consommations d’énergie, l’intégration d’énergies renouvelables et les émissions de gaz à effet de serre. Sur ce dernier poste le jury évaluera autant les stratégies d’atténuation (y compris le contenu carbone des matériaux de construction) que les stratégies d’adaptation au changement climatique.

Les consommations en énergie primaire (Cep) des bâtiments incluant les cinq postes de la RT 2012, exprimées en énergie primaire par m2 devront être conformes aux consommations suivantes :

Performances spécifiques aux projets BEPOS :

_Cep ≤ Cep max - 10 % avec une compensation des consommations des 5 usages réglementés (chauffage, ECS, rafraîchissement & ventilation, éclairage, auxiliaires) par une production locale d’électricité (Solaire PV, Cogénération...)

NB: les usages spécifiques de l’électricité peuvent être intégrés dans les consommations à compenser. Dans ce cas une note sur les estimations des consommations devra être transmise avec le dossier de candidature.

Performances spécifiques aux projets BEPAS :

_Besoin en chauffage et en rafraichissement ≤ 15 kWh/m2.an.

Critères communs aux projets BEPOS et BEPAS :

Tests d’étanchéité à l’air : le maître d’ouvrage doit prévoir un double test d’étanchéité à l’air, un avant la mise en œuvre des finitions, le second à la livraison du bâtiment. Les résultats du test devront être communiqués. Si les tests sont impossibles à réaliser le maître d’ouvrage doit le justifier.

Les coefficients d’équivalence (kWhef / kWhep) à utiliser sont : Electricité: 2,58 / Bois énergie : 0,6 / Autres énergies : 1.

Dans tous les cas, les simulations thermiques dynamiques (STD) seront utilisées pour conduire l’optimisation des consommations énergétiques d’hiver et justifier les conditions de confort d’été. Elles seront réalisées selon les conditions météorologiques suivantes :

- Conditions d’hiver : fichier météorologique des années 1970 à 2000,

- Conditions d’été : fichier météorologique des années 1996 à 2005.

Par ailleurs, lorsque la méthode normalisée est inadaptée au projet (innovations technologiques, difficulté de modélisation), les estimations basées sur les STD pourront être acceptées notamment pour le calcul des consommations du chauffage et du rafraîchissement. L’accord de l’ADEME devra être obtenu dans ce cas.

Les aides apportées par l’ADEME ont pour vocation de réduire les surinvestissements liés à la performance énergétique au-delà des coûts de la RT en vigueur. Elle s’applique à l’enveloppe du bâtiment, aux équipements de chauffage, climatisation, rafraîchissement, ventilation, d’éclairage performants et à la mise en œuvre des équipements de suivi et de gestion technique du bâtiment.

Les aides sont les suivantes :

_Logements collectifs : - 70 €/m2 si le projet à une dimension inférieure à 1 000 m2, - 60 €/m2 si le projet à une dimension supérieure à 1 000 m2.

_Bâtiments tertiaires : - 70 €/m2 si le projet à une dimension inférieure à 500 m2, - 60 €/m2 si le projet à une dimension supérieure à 500 m2.

Un prix spécial du jury sera accordé au(x) projet(s) pour l’utilisation de matériaux à faible énergie grise et à faible contenu carbone. Les critères d’évaluation de ces contenus sont décrits dans le dossier de candidature. Un bonus de 10 €/m2 sera accordé.

Dans tous les cas l’aide ne pourra dépasser 200 k€ par opération.

NB : toutes ces aides sont exprimées en m2 de SHON et sont des maximums. La surface prise en référence pour le calcul de l’aide ne pourra dépasser 1,2 fois la surface habitable.

La capitalisation des données a pour objectif de comprendre le fonctionnement du bâtiment, c'est-à- dire d’identifier les points forts et les points faibles des techniques et la manière dont elles sont mises en oeuvre ainsi que l’influence de la gestion sur le coût d’exploitation. De plus, un suivi régulier permet d’identifier et de corriger les dérives. Enfin, ces données pourront être utilisées pour améliorer les techniques et les référentiels en vigueur.

En conséquence, un échantillon de projets lauréats fera l’objet d’un suivi instrumenté sur une durée prévisionnelle de 3 trois ans dans le but de vérifier la réalité des performances annoncées. Ce suivi s’appuiera sur les équipements de comptage, de suivi, de métrologie et GTB/GTC mis en place sur le projet. Il sera réalisé par un ou plusieurs organismes missionnés par les partenaires de l'appel à projet. Chaque organisme devra être indépendant des projets portés à évaluation.

Par ailleurs, tous les lauréats s’engageront à fournir les données énergétiques relatives au fonctionnement des bâtiments pendant 5 ans. Les données à transmettre sont celles des consommations des postes suivants :

1. le chauffage hors auxiliaires, 2. ECS hors auxiliaires, 3. refroidissement (pour le tertiaire uniquement), 4. pompes de circulation et autres auxiliaires,... 5. système de ventilation, 6. éclairage, 7. autres usages.

Tour Elithis / ©Bernard Suard

3ème appel à projets «Bepos/Bepas» de l’Ademe Ile-de-France
3ème appel à projets «Bepos/Bepas» de l’Ademe Ile-de-France

Attention au départ du Tram-Train Nantes – Châteaubriant.

$
0
0
Attention au départ du Tram-Train Nantes – Châteaubriant.

Attention au départ du Tram-Train Nantes – Châteaubriant.

Deux jours de festivité pour la réouverture de la ligne Nantes – Châteaubriant, les 28 février et le 1er mars 2014. 34 ans après la fermeture de la ligne au trafic voyageurs, les journées inaugurales permettront de profiter et partager ce moment historique : la circulation des premiers trams-trains sur la ligne Nantes – Châteaubriant.

La réouverture d’une ligne pour un usage avec du tram-train est une première en France, avec des infrastructures et une signalisation spécifiques. Beaucoup plus léger qu’un train, le tram-train ressemble beaucoup à un tramway dont il a les avantages techniques (fortes accélérations et décélérations, larges portes à ouverture rapide, etc...) permettant d’offrir un temps de parcours attractif tout en desservant de nombreux points d’arrêts.

A l’occasion de la mise en service du tram-train Nantes – Châteaubriant, un livre retraçant l’histoire de la ligne a été réalisé par la direction du patrimoine de la Région des Pays de la Loire. Il est né suite à l’inventaire (gares, mobiliers...) qui a été réalisé en 2010 avant le début des travaux. Il aura nécessité un an de travail afin de recueillir des centaines d’éléments sur la création de la ligne avant 1877, son inauguration et son fonctionnement jusqu’en 1980. « Grâce au travail fourni par les Ponts et Chaussées, nous avons beaucoup d’écrits et de cartes datant de la fin du XIXème et du début du XXème siècle », souligne Gaëlle Caudal, de la direction du patrimoine. L’ouverture de la ligne, après trente ans d’études et de travaux, était très attendue. L’inauguration de 1877 constitua un véritable événement avec au programme un feu d’artifice, une fanfare venue de Paris et des animations de rue. L’Evêque de Nantes a même béni les premiers trains. De page en page, le livre évoque les grands événements comme les petites anecdotes qui ont marqué l’histoire de la ligne et des communes desservies. Et parfois, la petite histoire rejoint la grande, comme lors de la seconde Guerre Mondiale ou du voyage du Général De Gaulle de Nantes à Châteaubriant en 1960. Ce livre de plus de 100 pages, dont deux tiers présentent des photographies, des documents et des cartes d’époque, sera disponible en librairie à partir de février 2014.

Attention au départ du Tram-Train Nantes – Châteaubriant.

Cette innovation est accompagnée d’améliorations pratiques au service des usagers, avec par exemple des horaires qui seront cadencés sur l’ensemble de la journée. Les trois gares de Sucé-sur-Erdre, Nort-sur-Erdre et Châteaubriant seront desservies systématiquement, avec une fréquence accrue en heure de pointe (de 6h00 à 9h00 et de 16h30 à 19h30) et une desserte réalisée en double rames, soit 500 places au total dont 196 places assises.

La Région et ses partenaires poursuivent leurs efforts afin de proposer aux futurs usagers du tram-train des tarifs attractifs, simples, adaptés et solidaires sur les différents réseaux de transport urbain avec une offre de qualité. Les abonnés sur le trajet domicile-travail dépenseront au maximum 1€ par trajet. Les voyageurs occasionnels, moins de 10€ le trajet. Des réductions sont proposées par chaque partenaire pour offrir les meilleurs prix aux voyageurs : 20 % sur les tarifs de la TAN (Nantes Métropole) et gratuité des autocars LILA (Conseil Général) en rabattement sur présentation d’un titre de transport tram-train. Les tarifs définitifs seront communiqués au début de l’année 2014 afin de prendre en compte les évolutions annuelles des différents réseaux. Le principe d’intermodalité est optimisé et adapté à chaque station de la ligne Nantes-Châteaubriant. Le Conseil général de Loire-Atlantique (réseau LILA) mettra en place à la fin août 2014, un système de rabattements des autocars LILA vers la ligne ferroviaire. Nantes Métropole met en place dans l’agglomération nantaise, des correspondances avec les bus et la ligne 1 de tramway TAN.

Accessible à tous, et en particulier aux personnes à mobilité réduite, grâce à un plancher intégralement bas et aux dispositifs combles-lacunes avec les quais, le Tram-Train emprunte aussi au train d’autres qualités : une vitesse de pointe plus élevée que celle du tramway (100 km/h contre 70 km/h), davantage de places assises pour un meilleur confort (98 places assises, toilettes accessibles aux personnes à mobilité réduite, portes bagages, sièges confortables de type TER, stores, système de vidéo-protection, système d’information voyageurs etc...).

Silencieux, le tram-train émet en ville un niveau sonore inférieur au niveau généré par le trafic automobile, soit près de 4 fois moins de bruit. L’utilisation de matériaux composites et l’amélioration de l’efficacité des systèmes de traction ont permis de réduire la masse et la consommation d’énergie de 10%. Un Citadis Dualis consomme ainsi en KWh/passager assis, 4 fois moins qu’un bus et 10 fois moins qu’une voiture.

La Région s’est équipée auprès d’ALSTOM de 24 rames, mutualisées entre les 2 lignes Nantes – Châteaubriant et Nantes – Clisson, entretenues à l’atelier de maintenance de Nantes Doulon, mis en service en 2010 et dédié aux tram-trains. Elle a intégralement pris en charge ce budget, d’un montant de 95,9 M€.

Chaque rame du tram-train dispose de 250 places dont 98 places assises, capacité doublée avec deux rames couplées.

En synthèse, le tram-train,

O Une bonne insertion urbaine et dans le paysage

O De fortes accélérations et décélérations (rapide quand il faut s’arrêter souvent)

O De larges portes à ouvertures rapides

O Un faible niveau sonore

O Une accessibilité optimisée pour les personnes à mobilité réduite (plancher bas intégral)

O Un coût d’exploitation moins élevé que celui du train

O Une vitesse de pointe plus élevée que le tramway (100 km/h)

O Des équipements confortables (climatisation, sièges ferroviaires, portes-bagages, toilettes, stores)

O Un matériel roulant respectueux de l’environnement du fait de la traction électrique

Attention au départ du Tram-Train Nantes – Châteaubriant.

Le principe d’intermodalité est optimisé et adapté à chaque station de la ligne Nantes-Châteaubriant.

Avec ses partenaires, la Région a aménagé :

O des parkings de stationnement spacieux (1 344 places dont 40 pour les personnes à mobilité réduite – hors pôles d’échange de Babinière et Haluchère-Batignolles)

O des abris-vélos sécurisés réservés aux abonnés (128 emplacements) et des emplacements vélos non sécurisés (140 places)

O des cheminements piétons pour faciliter l’accès aux stations.

Le Département adapte son réseau Lila au tram-train Nantes-Châteaubriant

La mise en service d’une nouvelle desserte entre Châteaubriant et Nantes à partir du 28 février 2014 implique une réorganisation globale des transports en commun pour le nord de la Loire-Atlantique. Partenaire du Conseil régional des Pays de la Loire pour le développement de la solution innovante du tram-train, le Département veille à ce que son propre réseau n’entre pas en concurrence avec la ligne ferroviaire Nantes-Châteaubriant. Les lignes Lila vont ainsi s’adapter à partir de la rentrée 2014 selon les grands principes suivants :

- Une navette Lila pour chaque tram-train en direction de Nantes. L’horaire des cars Lila sera calé sur les services des trams-trains. Les correspondances seront garanties avec un délai de 5 à 7 minutes entre l’arrivée de la navette Lila et le départ du tram-train.

- Voyage gratuit sur les navettes Lila pour les porteurs d’un titre tram-train. Ces derniers n’auront aucun supplément à payer à bord du car.

Maintien du réseau actuel jusqu’à la rentrée 2014

Le Département, qui a porté son financement du tram-train à hauteur de 62,52 M€ en octobre 2013, a décidé de maintenir son réseau actuel durant la première phase de mise en circulation du tram-train : afin de ne pas bousculer en cours d’année les habitudes de vie prises par les usagers, les lignes Lila ne changeront pas avant la fin août 2014.

Après cette date, les communes actuellement desservies continueront à l’être : soit par le tram-train, soit par des navettes Lila. Une réflexion concertée avec les collectivités locales a été engagée pour les dessertes complémentaires encore à l’étude. Le Département communiquera une information pratique plus détaillée à partir du printemps prochain.

Nantes Métropole propose

• 1 tramway toutes les 5 minutes à Haluchère.

• 1 connexion à la gare de la Chapelle-Aulnay.

• 1 étude de la desserte de la ZAC d’Erdre active.

• 5 nouvelles gares dans le périmètre TAN-TER.

La collectivité met également en place une nouvelle navette dès l’ouverture Babinière < > Ecole Centrale (ligne 2 tramway). Elle assure un trajet toutes les 7 minutes, avec des correspondances assurées vers Nantes, le matin, vers Châteaubriant, le soir.

Attention au départ du Tram-Train Nantes – Châteaubriant.

Des tarifs au plus près des besoins de chacun

La Région et ses partenaires poursuivent leurs efforts afin de proposer aux futurs usagers du tram-train des tarifs attractifs, simples, adaptés et solidaires sur les différents réseaux de transport urbain avec une offre de qualité. Les tarifs définitifs seront communiqués au début de l’année 2014 afin de prendre en compte les évolutions annuelles des différents réseaux.

L’abonnement domicile – travail : 1€ maximum le trajet

Avec l’abonnement PratiK, les salariés bénéficient de 75 % de réduction. En complément, le dispositif d’aide à la mobilité de la Région (plus d’informations sur www.paysdelaloire.fr), ramène le coût du trajet pour un abonné domicile-travail à un maximum d’un euro, prime transport déduite (prise en charge de 50 % de l’employeur) ! PratiK, c’est aussi les week-ends et les jours fériés des billets à 50 % de réduction pour l’abonné et pour les personnes (jusqu’à 3) qui l’accompagnent.

Par exemple,

O Châteaubriant – Nantes (64 km), prix théorique d’un abonnement mensuel : 117,80 €. 50 % est pris en charge par l’employeur, soit 58,90 €. Avec l’aide complémentaire de la Région, le salarié ne paiera au final que 45 € par mois, soit 1 € par trajet (sur la base de 22,5 allers – retours).

O Nort-sur-Erdre – Châteaubriant (36 km), prix théorique de l’abonnement mensuel : 74,50 €. 50 % est pris en charge par l’employeur, soit 37,25 €. Le prix par trajet est estimé à 0,83 €.

Pour les occasionnels : moins de 10 € le trajet

Le prix du billet tram-train à l’unité dépend de la distance effectuée. Par exemple,

O Châteaubriant – Nantes (64 km) : entre Nantes agglomération et Châteaubriant, le prix maximal est plafonné pour son lancement à 9,90 €.

Sur présentation d’une carte TivA (jeunes 15 – 25 ans) ou Fifti (26 ans et plus), le coût du trajet n’est que de seulement 5,90 €. Avec la carte Acti (demandeurs d’emploi), le prix n’est que de 3 €.

O Sur un trajet plus court, comme Issé – Châteaubriant, le plein tarif normal est de 3,20 €.

Pour une utilisation tram-train + LILA (autocars départementaux) et/ou les transports urbains TAN : des tarifs simples

Des réductions sont proposées par chaque partenaire pour offrir les meilleurs prix aux voyageurs :

- Réductions pour les abonnés jeunes et pour les occasionnels avec cartes (Région Pays de la Loire) ;

- 20 % sur les tarifs de la TAN (Nantes Métropole) ;

- Gratuité des autocars LILA en rabattement sur présentation d’un titre de transport tram-train (Conseil Général).

Quatre types de tarifs intermodaux seront disponibles : tarif normal et tarif réduit occasionnel, abonnements plus de 26 ans et moins de 26 ans. Les titres de transport TAN seront valables dans le tram-train pour tous les voyages effectués entre Nantes et La Chapelle-sur-Erdre.

A bord du tram-train, les tarifs applicables sur le réseau régional sont valables :

- tarifs SNCF : familles nombreuses, carte jeune, séniors, abonnement élèves, étudiants, apprentis, etc.

- tarifs créés par le Conseil régional des Pays de la Loire : PratiK (abonnement de travail) TivA (15-25 ans), Fifti (à partir de 26 ans), Acti (pour les demandeurs d’emplois), Forfait TribU (pour les petits groupes), etc.

- les billets en correspondance (TER, TGV).

Attention au départ du Tram-Train Nantes – Châteaubriant.

Horaires et temps de trajet

La Région des Pays de la Loire entend poursuivre le développement d’un service public régional de transports de voyageurs de qualité et assurer le meilleur service aux usagers. Avec ses partenaires, elle fait donc le choix d’une tarification qui rende plus facile l’accès aux transports publics au plus grand nombre de ligériens.

Trajets Nantes-Châteaubriant proposés au 28 février 2014 :

Nantes <> Sucé-sur-Erdre (27 minutes)

Nantes <> Nort-sur-Erdre (37 minutes)

Nantes <> Châteaubriant (1h07)

Lundi à vendredi

24 A/R (dont 6 en terminus)

18 A/R (dont 11 en terminus)

7 A/R

Samedi

20 A/R (dont 10 en terminus)

10 A/R (dont 5 en terminus)

5 A/R

Dimanche et Fêtes

10 A/R (dont 3 en terminus)

7 A/R (dont 3 en terminus)

4 A/R

Les horaires sont cadencés sur l’ensemble de la journée : les départs de Nantes se feront aux minutes 10 et 35 (sauf pour 2 circulations : Sucé-sur-Erdre / Nantes le matin, départ à 7h23 et Nantes / Sucé-sur-Erdre le soir, départ à 17h47). Le principe du cadencement ? C’est la circulation à intervalles réguliers des trains. Objectif : faciliter les déplacements, permettre d’avoir des horaires fixes, à intervalles réguliers, et assurer des correspondances, elles aussi régulières.

Les trois gares de Sucé-sur-Erdre, Nort-sur-Erdre et Châteaubriant seront desservies systématiquement, avec une fréquence accrue en heure de pointe (de 6h00 à 9h00 et de 16h30 à 19h30) :

O Nantes / Châteaubriant : 1 tram-train par heure et par sens

O Nantes / Nort-sur-Erdre : 2 tram-trains par heure et par sens

O Nantes / Sucé-sur-Erdre : 2 tram-trains par heure et par sens

Derniers départs de Nantes proposés au 28 février 2014

Nantes vers Sucé-sur-Erdre

Nantes vers Nort-sur-Erdre

Nantes vers Châteaubriant

Lundi à vendredi

20h10

19h35

18h35

Samedis (hors fériés)

23h10

22h10

20h10

Dimanches et fériés

21h35

20h10

20h10

En période de pointe, la desserte sera réalisée en double rames, soit 500 places au total dont 196 places assises. Les horaires seront identiques en dehors et pendant les vacances scolaires.

Attention au départ du Tram-Train Nantes – Châteaubriant.
Attention au départ du Tram-Train Nantes – Châteaubriant.

Voici le film du Blog Habitat Durable sur Facebook.

Pensée du Jour

$
0
0
Pensée du Jour

Pensée du Jour

"Être conscient des innombrables souffrances, des terribles souffrances physiques et morales, surtout des tortures physiques subies à chaque instant sur terre, dans des maisons de redressement et des hôpitaux, des abattoirs avec ou sans murs pour les soustraire à la vue, vivre face à cela, c’est vivre les yeux ouverts. En dehors d’une telle conscience, toute décision est aveugle, toute démarche assurée est errance, tout bonheur est faux »

Max Horkheimer 1895 - 1973

Supprimer les normes caduques et réactiver une politique architecturale

$
0
0
Supprimer les normes caduques et réactiver une politique architecturale

Supprimer les normes caduques et réactiver une politique architecturale

La mission parlementaire concernant la création architecturale, présidée par le député Patrick Bloche créée en décembre 2013, a permis l’audition de Catherine Jacquot, nouvelle présidente du CNOA, et Denis Dessus, vice-président le 6 février dernier.

Cette mission qui doit évaluer l’évolution récente de la création architecturale française en vue d’apprécier sa situation, en France et dans le monde. Elle a notamment pour objectif d’identifier, le cas échéant, les freins structurels au rayonnement architectural français, ainsi que les modifications législatives et règlementaires propres à les lever.

C’est donc dans ce cadre que Catherine Jacquot a été auditionnée. En guise d’introduction, elle a présenté quelques chiffres clés de la profession architecturale, (chiffres, féminisation lente de la profession, situation économique, structures d’exercice, etc.) et des travaux de l’Institution. Ensuite elle a évoqué l’actualité législative (loi ALUR, objectifs 500 000 logements et dérives du GT 4, projet de loi patrimoines), exprimé les difficultés des Ecoles d’architecture (manque de moyens, statut de la HMO, développement nécessaire de la recherche), et des CAUE, rappelé la demande des architectes sur le seuil d’intervention des architectes (retour au droit constant, donc à 150 m² de surface de plancher), et fait part des propositions de l’institution au regard de mesures incitatives en dessous des seuils (permis simplifié).

Quant à Denis Dessus, il a pour sa part évoqué le manque de politique architecturale en France depuis 20 ans, la dégradation des conditions d’intervention des architectes. Tout est lié, a-t-il souligné aux modalités de passation de la commande qui se situe en très grande majorité en dessous des seuils : programme mal ficelé, concurrence de plus en plus rude, contractualisation difficile, tendance au dumping, et au bout du compte paupérisation de la profession…

Sophie Dessus a approuvé la position défendue par l’Ordre sur les normes (« On ne peut que vous encourager car les architectes sont vampirisés par les normes et ne peuvent plus créer »), et a insisté sur la nécessité de « revenir à une logique du bon sens » en la matière.
Sur les CAUE, elle a regretté leur manque de moyens et rappelé la nécessité de renforcer les équipes.
Elle a enfin souligné que recourir à un architecte était toujours un bon investissement dans le neuf tout comme dans la réhabilitation : « nous avons besoin de vous ! ».
Au sujet des normes, Catherine Jacquot, dans un entretien accordé à la Gazette des Communes, est revenu sur la thématique normative et estime que l’on ne supprime jamais les normes caduques.

« En ce qui concerne le groupe consacré aux normes et règles, les participants sont d’accord sur la nécessité de simplifier les textes. Nous avons demandé d’inclure dans le travail du groupe la règlementation urbaine, issues des différents documents d’urbanisme élaborés par les collectivités locales, et dont la simplification et la pertinence permettraient de dégager une part importante de constructibilité sur les terrains urbanisés.

Les documents d’urbanisme sont des outils formidables pour densifier la ville de façon harmonieuse à partir de projets urbains, et non de règles stéréotypées qui ne tiennent pas compte du contexte. Il faut voir la ville en 3D, et non comme un simple découpage foncier. Cela nécessité une pédagogie, de la concertation et une ingénierie publique et privée compétente. A ce sujet, l’échelle intercommunale est indispensable. »

Diminuer les normes :

« Pour construire un bâtiment, il faut répondre à 3800 règles et normes, qui engendrent en moyenne un surcoût de 10% sur le prix global. Ces règles et normes rigidifient les typologies des logements et les transforment en modèles standardisés.

Nous ressentons ce poids excessif des normes comme une rupture du pacte de confiance. Nous proposons de changer de logique : il faut rétablir ce pacte de confiance entre les décideurs, les citoyens et les professionnels. Nous disons donc : fixez-nous des objectifs, énoncez les règles principales et nous vous proposerons des solutions adaptées à chaque situation.

Nous avons par ailleurs proposé des simplifications sur les règles d’accessibilité, les normes sismiques, thermiques etc. Les normes Afnor et autres sont pour certaines tout à fait louables, mais c’est l’empilement des prescriptions qui est problématique : on ne supprime jamais les normes caduques. »

« Nous nous sommes retrouvés un peu isolés : en résumé, pour réduire les coûts de construction, il serait proposé de limiter les interventions des architectes, notamment en privilégiant le recours à la procédure de conception réalisation. Les maîtres d’ouvrage sont réduits à devenir des acheteurs publics et le logement est transformé en produit, avec des typologies et des processus de fabrication standardisés.

Cela va écarter toutes les entreprises du bâtiment qui ne sont pas entreprises générales, supprimer la concurrence et favoriser les grands groupes. De plus, la qualité architecturale va s’en trouver dégradée.

Il ne faut pas toucher à la loi « MOP » relative à la maitrise d’ouvrage publique. Que les entreprises arrivent à industrialiser leur production, c’est très bien, mais chaque projet doit rester unique et indépendant de ces procédés de fabrication, et l’architecte doit rester présent. Le coût d’un architecte représente environ 2% du coût global d’une construction (foncier et travaux), et il apporte une réelle plus-value. »


Pierre Leautey a souligné le paradoxe existant entre le peu d’architecte en France par rapport à la moyenne au sein de l’Union européenne, et leur manque de revenus. « Que faire pour sortir de cette contradiction ? »
Il a demandé si les 500 000 logements étaient de nature à libérer la création et entraîner un mouvement vertueux en faveur d’une augmentation de la construction.

Patrick Bloche a souligné les problèmes liés à l’absence de dialogue architecte/maître d’ouvrage dans le cadre des concours.
Sur ces différents points, Catherine Jacquot et Denis Dessus ont souligné qu’une grande part des constructions échappaient aux architectes, rappelé la tendance à la segmentation des missions et au dumping, précisé qu’en matière de rénovation énergétique il était indispensable de faire aussi appel aux architectes (et pas seulement aux marchands de matériaux) et plaidé pour la création d’un guichet unique CAUE/ADIL pour orienter les particuliers.

Denis Dessus a enfin insisté sur les menaces sérieuses qui pèsent sur la loi MOP et a regretté le manque général de compétences de la maîtrise d’ouvrage publique. La MOP a-t-il précisé impose un programme et de fait une maîtrise d’ouvrage publique structurée et compétente.

Enfin, la question de l’importance du soutien à l’exportation des architectes français a été évoquée. Sur ce sujet trois points ont été rappelés : La nécessité d’auditionner l’AFEX, la nécessité d’adapter les aides aux agences d’architecture et l’importance de développer un pôle interministériel regroupant différents partenaires ministériels œuvrant pour l’exportation de l’architecture, pour soutenir et développer les aides à l’export.


Une maintenance intelligente, clef indispensable à la bonne marche d’une Entreprise…

$
0
0
Une maintenance intelligente, clef indispensable à la bonne marche d’une Entreprise…

Une maintenance intelligente, clef indispensable à la bonne marche d’une Entreprise…

Une maintenance de qualité constitue la clef indispensable à la bonne marche d’une entreprise. Elle est malheureusement trop souvent conçue dans l’unique but d’assurer le bon fonctionnement des équipements et la prévention des pannes.

Pourtant, l’élaboration d’un programme de maintenance et sa mise en oeuvre sont aussi l’occasion d’optimiser les processus, de repérer les fuites et les gaspillages et de localiser rapidement les dysfonctionnements et les dérives. C’est donc tout particulièrement l’occasion de minimiser les consommations d’énergie de votre entreprise.

Souvent rattaché à une image archétype de l’ouvrier de maintenance en salopette graissant les rouages d’une machine, vérifiant aussi les niveaux d’huile et accumulant au fond de l’atelier de pièces de rechange et d’ustensiles indéfinissables «qui peuvent toujours servir, on ne sait jamais » ! La maintenance est devenue un métier en soi, une véritable spécialité qui combine des connaissances techniques pointues, des compétences informatiques, des talents de gestionnaire et un réseau de relations pour assurer l’imprévisible et se tenir au courant des derniers progrès techniques et des nouveaux services proposés sur le marché. Dans le temps, on attendait du «maintenancier» qu’il fasse tourner la machine sans encombre tout en assurant la sécurité du personnel. On l’a ensuite chargé de faire respecter les exigences légales en matière d’environnement et maintenant on lui demande en plus de gérer au mieux les coûts d’exploitation dont l’optimisation devient un réel enjeu de compétitivité de l’entreprise.

Une maintenance à hiérarchiser

Dans le passé, on attendait qu’un équipement tombe en panne pour le réparer ou le remplacer, on appelait ça «faire le pompier». Maintenant on distingue 4 niveaux d’intervention :

1. La maintenance corrective ou réactive

On répare quand ça casse. Les interventions ne sont pas planifiées et interrompent la production. Un grand nombre d’entreprises se contentent encore malheureusement de cet unique niveau d’intervention : on estime que 35 à 50 % des opérations de maintenance sont encore du type «on réparera si ça casse ».

2. La maintenance préventive

A ce niveau, on tente d’éviter les pannes en organisant des entretiens réguliers du matériel. On change certaines pièces au cours d’entretiens standardisés, quelque soit leur état. On doit bien entendu interrompre la production pour assurer ces entretiens mais les ruptures sont programmées et permettent à chacun de s’organiser.

En fait, cette démarche est exactement ce que nous faisons lorsque nous confions notre voiture à un atelier d’entretien.

3. La maintenance prédictive

La maintenance prédictive est beaucoup plus élaborée. Elle essaye à la fois d’éviter les ruptures de fonctionnement non programmées et de limiter les entretiens et remplacements au moment où les installations en ont effectivement besoin. On l’appelle maintenance conditionnelle : on identifie un ensemble d’alertes ou de dérives qui préviennent de problèmes à venir et, en vertu de protocoles préétablis, on intervient si le diagnostic l’exige.

Ces interventions sont planifiables mais parfois à court terme, à partir du moment où les alertes apparaissent. Notamment sur l’imagerie infrarouge au service de la maintenance prédictive. La photographie infrarouge met en évidence les écarts de températures, elle est donc très utile pour repérer des moteurs ou des contacteurs électriques qui chauffent, des fuites d’eau chaude cachées dans une dalle de béton, des tuyauteries de vapeur mal isolées ou des échangeurs noyés. Vous pouvez bien sûr faire l’acquisition d’une caméra IR mais l’engin est coûteux et nécessite un certain apprentissage pour obtenir les meilleurs contrastes. Prenez donc plutôt contact avec des spécialistes qui viendront régulièrement passer vos installations en revue.

4. La maintenance proactive

Elle se concentre sur la compréhension de l’origine des problèmes afin de les éviter. Elle ne provoque pas forcément l’arrêt des installations mais prépare un renouvellement, ou une modification des installations.

Le Structural Health Monitoring (SHM), Au Cœur Des Industries De Pointe …

La maintenance, une occasion de faire de la gestion énergétique

La gestion de l’énergie devient tout naturellement un des outils de travail quotidien du responsable de maintenance, à chaque niveau d’intervention. Elle est omniprésente dans l’inspection continue des installations : chasse aux fuites d’air comprimé ou aux panaches de vapeur flash par exemple. Elle est aussi présente au niveau de la maintenance prédictive ou proactive : les dérives de consommations d’énergie, l’échauffement anormal des équipements sont souvent des signes qui ne trompent pas et constituent des signaux d’alerte de premier ordre (voir encadré). Enfin, c’est au niveau de la conception d’une installation que l’on réalisera les plus grandes économies d’énergie en intégrant systématiquement la préoccupation énergétique à toutes les étapes du projet. Il est donc important que le responsable énergie et celui de la maintenance entretiennent des relations étroites et régulières ou que la gestion énergétique soit confiée au responsable de la maintenance.

Travailler en interne ou pratiquer l’«outsourcing»?

Chez les fournisseurs et dans les sociétés de service, l’entretien et la conduite des machines est un métier qui s’est adapté également aux exigences du monde industriel. Au départ, les services offerts se limitaient à des contrats d’entretien et aux réparations obligatoires. On est ensuite progressivement passé à des missions de surveillance et d’exploitation qui ont débouché sur des contrats de garantie totale comprenant des assurances sur le taux de disponibilité des outils. Aujourd’hui, on trouve sur le marché des offres de gestion globale des énergies et même in fine, un «outsourcing» complet où le client en arrive à acheter de l’air comprimé au m3 et de la vapeur à la tonne.

Qui doit alors assurer la maintenance et réaliser l’optimisation des processus ? Doit-on les réaliser en interne? Doit-on les confier à des spécialistes ou à des sociétés de services? Les avis sont partagés. Bon nombre de responsables de maintenance considèrent qu’on doit encore pouvoir se débrouiller tout seul. Mais pas mal de chefs d’entreprise considèrent qu’une sous-traitance leur permet de mieux se concentrer sur leur métier de base. Le tout est de réussir à entretenir une relation de confiance et d’efficacité avec son partenaire. Et de négocier dans la durée des prix de fourniture des services énergétiques obligeant les fournisseurs à pratiquer une gestion énergétique rigoureuse pour demeurer compétitifs.

La maintenance aujourd’hui : un enjeu concurrentiel qui crée de l’emploi ! Notre tissu industriel est ancien, nos installations prennent de l’âge et se trouvent de plus en plus souvent en concurrence avec celles des pays neufs dont les infrastructures sont nouvelles et bénéficient des derniers développements technologiques. Chez nous, on investit proportionnellement moins dans de nouvelles usines ou de nouvelles chaînes, mais on améliore de plus en plus les anciennes. Aussi, si l’automatisation des procédés de fabrication a tendance à réduire l’emploi, la maintenance que ces machines requièrent en crée au point que les services de maintenance font souvent face à une pénurie de main d’œuvre qualifiée.

Une maintenance intelligente, clef indispensable à la bonne marche d’une Entreprise…

L’apport satellitaire au service de la planification des territoires et du suivi de leur utilisation.

$
0
0
L’apport satellitaire au service de la planification des territoires et du suivi de leur utilisation.

L’apport satellitaire au service de la planification des territoires et du suivi de leur utilisation.

La Direction de la recherche et de l’innovation du Commissariat général au développement durable vient de publier une étude concernant l’apport des applications satellitaires notamment sur les besoins en matière de planification des territoires et de suivi de leur utilisation.

Face à l’augmentation continue de l’artificialisation des espaces, cette préoccupation majeure de l’occupation des sols a donné lieu à un ensemble de dispositions législatives et réglementaires, tant communautaires que nationales. C’est dans ce contexte que s’inscrivent les efforts déployés pour contribuer, à cet égard, aux objectifs de la Transition écologique. Les satellites apportent en effet une vision globale des phénomènes observés, tout en étant très utiles pour appréhender les phénomènes locaux et étudier à toutes les échelles les évolutions dans le temps.

Les projets pilotes lancés avec le soutien du ministère depuis 2011 et 2012 ont notamment permis d’avancer significativement dans le traitement automatisé des images fournies par satellites, en obtenant, sur des emprises régionales ou locales, des couches d’occupation des sols simples, qui présentent un potentiel d’utilisation intéressant pour un suivi régulier de l’étalement urbain et contribuent au diagnostic de territoire nécessaire pour la planification. Grâce à l’imagerie en très haute résolution, déterminer la densité urbaine sur de larges zones est aujourd’hui possible.

Le contexte réglementaire

Sur ce sujet prioritaire, la production réglementaire a été très importante depuis une quinzaine d’années.

Documents d’urbanisme

Pour répondre aux besoins de la population en termes de logements et d’alimentation, la Stratégie Nationale de Développement Durable 2010-2013 a fixé parmi ses orientations la lutte contre l’artificialisation des espaces. Il en découle une obligation d’intégrer dans les documents d’urbanisme des mesures relatives «à la maîtrise de l’étalement urbain» et à «la limitation de la consommation des espaces agricoles et naturels». Il s’agit de privilégier le renouvellement urbain et la densification du bâti, pour répondre au besoin croissant d’espace.

La loi Grenelle 2 du 12 Juillet 2010 avait déjà préconisé un urbanisme plus économe en ressources foncières, avec notamment des schémas de cohérence territoriaux

(SCOT) plus prescriptifs, fixant des objectifs chiffrés de réduction de la consommation d’espaces naturels, agricoles et forestiers, et précisant les mesures pour les atteindre. Quant aux plans locaux d’urbanisme (PLU), ils poursuivent aussi un objectif chiffré de limitation de la consommation des espaces naturels. L’évaluation des politiques publiques conduites dans ce cadre est devenue obligatoire, avec des périodicités variables suivant les documents de planification concernés (3 ans, 6 ans, 10 ans).

Trame verte et bleue

Dans le cadre de la Transition écologique, la politique de Trame Verte et Bleue porte l’ambition d’enrayer le déclin de la biodiversité, en préservant, voire en restaurant, les continuités écologiques. Cet outil d’aménagement du territoire vise à (re) constituer un réseau écologique cohérent à l’échelle nationale, pour permettre aux espèces animales et végétales de circuler, de s’alimenter et de se reproduire.

Les Schémas Régionaux de Cohérence Ecologique (SRCE) déclinent la Trame Verte et Bleue à l’échelle régionale et la plupart des documents d’urbanisme ou des grands projets doivent être compatibles avec ces schémas, afin de réduire la fragmentation écologique du territoire.

Préservation des terres agricoles

La loi de modernisation de l’agriculture et de la pêche (LMAP) du 13 juillet 2010 a complété ce dispositif, en posant le principe d’une réduction de moitié de la perte de surfaces agricoles d’ici 2020. Elle a conduit à la création d’un Observatoire de la consommation des espaces agricoles, ainsi qu’à la mise en place des Commissions Départementales de la Consommation des Espaces Agricoles (CDCEA).

La première Conférence environnementale, qui s’est tenue les 14 et 15 Septembre 2012, a défini très précisément les mesures à prendre et le calendrier associé, pour engager l’ensemble des politiques publiques dans la lutte contre l’artificialisation des sols.

Nécessité d’un schéma d’analyse cohérent

Ce cadre réglementaire exigeant, qu’il s’agisse de maîtrise de l’étalement urbain, de structuration du maillage écologique ou de préservation des terres agricoles et des espaces naturels, requiert un schéma d’analyse cohérent, comprenant trois étapes de travail :

Ÿ diagnostic de l’état actuel,

Ÿ définition des territoires à enjeux,

Ÿ suivi des tendances au moyen d’indicateurs pertinents.

La caractérisation de l’occupation du sol, comme celle de son évolution, deviennent un impératif.

La qualité des bases de données disponibles étant de niveaux très hétérogènes et présentant certaines limites, il existe un fort besoin de production d’une couche actualisée d’occupation des sols. Si l’utilisation de l’imagerie satellitaire apparaît comme une solution crédible pour répondre à cette attente, le recours à des méthodes complémentaires, ne serait-ce que pour des vérifications de terrain, apparaît encore nécessaire dans le cas d’applications exigeantes en terme de cartographie fine ou d’évolution sur de petites emprises.

Les enjeux de l’occupation du sol

Comme cela a été évoqué plus haut, les grandes thématiques qui répondent aux enjeux évoqués par le cadre réglementaire et pour lesquelles les applications satellitaires offrent une grande utilité, sont au nombre de quatre :

Ÿ un urbanisme plus économe en ressources foncières,

Ÿ une consommation plus sobre de l’espace liée à la préservation des terres agricoles,

Ÿ une restauration des continuités écologiques,

Ÿ une détermination fine de la densité urbaine, liée à la lutte contre l’étalement urbain.

Les attentes des utilisateurs

L’objectif principal des utilisateurs de l’imagerie satellitaire est la détermination d’indicateurs pertinents sur un territoire régional, avec une localisation simple des zones à enjeux (consommation de l’espace, potentiel écologique ...). Cette exigence requiert une nomenclature en 7 classes d’occupation du sol, qui soit cohérente avec Corine Land Cover : surfaces artificialisées hors axes de communication, surfaces en eau, forêts, cultures, prairies, axes de communication, zones humides distinctes des cultures, prairies. La thématique des zones humides nécessite, quant à elle, des travaux de recherche complémentaires.

Les avantages de l’imagerie satellitaire

Par rapport aux bases de données habituellement utilisées pour traiter des thématiques de l’occupation des sols, les technologies satellitaires présentent différents atouts :

Ÿ une large couverture d’observation (exemple : 60 km x 60 km pour SPOT 5)

Ÿ la possibilité d’un passage régulier au-dessus d’un même point (après seulement quelques jours, par exemple)

Ÿ des résolutions spatiales conformes aux besoins

• des coûts faibles par rapport à l’utilisation d’images aériennes, dès lors que la zone d’observation est vaste, une information spectrale riche permettant la mise en place de traitements automatiques de l’information sur des territoires étendus

Ÿ un recours à des techniques d’extraction automatique d’informations et de production d’une couche d’occupation du sol répondant à un grand nombre de besoins Ÿl’émergence de dispositifs d’accès gratuit à l’imagerie satellitaire (ex : Geosud, qui permet à tout acteur public d’accéder à une image d’une couverture nationale homogène, avec une résolution entre 5 et 10 mètres).

Les conditions et les limites de l’utilisation

Comme pour les autres technologies, l’utilisation des technologies satellitaires a pour préalable une information adaptée, pour une pleine sensibilisation et une véritable appropriation des méthodes et des outils par les services concernés.

Lorsque les besoins des utilisateurs portent sur des évolutions du territoire sur de petites emprises ou sur la localisation fine de zones à enjeux, l’utilisation des images satellites peut rencontrer des limites et devoir être complétée par d’autres méthodes, encore que l’utilisation des données en très haute résolution conduise parfois, en milieu urbain, à des indicateurs de densité pouvant se substituer à une analyse de terrain.

Les couches haute résolution du programme Copernicus

Les couches à haute résolution sont disponibles à partir du programme Copernicus(3), anciennement GMES. Il s’agit de cinq couches, harmonisées sur l’ensemble du territoire européen, et pour lesquelles, à cette date, les services ne sont disponibles que sur certains territoires de démonstration.

Souvent appelées «HR layers», ces couches à hautes résolutions sont issues de traitements automatiques d’images satellites SPOT 4 et 5, disposant d’une résolution variant entre 20 et 100 mètres. Les cinq «HR layers» sont :

Ÿ les zones artificialisées,

Ÿ les zones de forêt,

Ÿ les prairies,

Ÿ les zones humides,

Ÿ les zones d’eau.

Ces couches sont ensuite utilisées pour établir les couches de Corine Land Cover.

Densité urbaine : Le test de Toulouse

En application des principes du développement durable, la ville doit poursuivre plusieurs objectifs : améliorer la qualité de vie de ses habitants, privilégier les transports collectifs et les transports doux et porter une attention particulière à la préservation, voire à la «redensification», des centres urbains. Il convient ainsi de lutter contre un développement périurbain, avec son modèle pavillonnaire, consommateur à la fois de foncier et d’énergie.

Dans l’exemple de Toulouse, l’outil satellitaire testé par le Pôle de Compétences et d’Innovation du CETE Sud-Ouest a conduit à une bonne appréciation de l’occupation du sol et de la consommation de l’espace.

La très haute résolution permet ainsi de caractériser finement la densité urbaine. Les images disponibles sont désormais accessibles via le programme Pléiades(5). Dans la phase de valorisation de ces images, leur acquisition a été facilitée par la «Recette Thématique Utilisateurs» (RTU) Pléiades, pilotée par le CNES. Il en est de même pour le traitement d’images via l’outil «Orfeo Tool Box», également développé par le CNES.

La méthode mise au point par le CETE permet d’extraire une couche d’occupation du sol suffisamment pertinente pour le bâti, conduisant à la production d’indicateurs de densité surfacique.

Le champ d’investigation choisi est particulièrement intéressant, compte tenu des spécificités de l’agglomération toulousaine : une grande étendue spatiale (plus de 100 km2), une extension « naturelle » en zone périphérique et une forte pression démographique, avec une croissance de la population de 10000 habitants par an.

Deux zones test, représentatives de paysages hétérogènes, ont été sélectionnées (quartiers Saint-Michel et Rangueil). Une méthodologie générale, produisant une couche d’occupation des sols à partir d’un traitement semi-automatique d’images, a été établie. Les images utilisées ont une résolution de 50 cm et proposent quatre bandes spectrales.

Sur les images traitées, plusieurs zones d’apprentissage -ou «échantillons vérité»- sont sélectionnées manuellement et représentent environ 3% de l’image totale. Un outil de classification automatique est mis en œuvre dans un premier temps, en utilisant notamment les capacités des quatre bandes spectrales Pléiades. Puis, les paramètres de la classification sont ajustés par itérations, de façon à optimiser les résultats produits sur les zones d’apprentissage : on vérifie ensuite, pour ces zones, la concordance de la couche d’occupation du sol obtenue avec la « vérité terrain » (« échantillons vérité»). La classification semi-automatique s’applique à l’ensemble des images de test, puis à l’ensemble de la ville.

La densité surfacique, c’est-à-dire le nombre de m2 de surface bâtie par îlot urbain, se calcule à partir du traitement précédent. Appliquée à la ville de Toulouse dans son ensemble, la méthodologie déployée, sur la base de l’image Pléiades de référence, conduit avec précision à une carte de densité calculée à l’îlot.

Un outil efficace et accessible

Qu’il s’agisse de méthodes automatiques mises en œuvre à l’échelle régionale ou de méthodes semi- automatiques utilisées en milieu urbain, l’imagerie par satellite est désormais un outil efficace et accessible (SPOT), permettant de produire des informations dérivées particulièrement utiles pour la gestion de l’espace et la préservation de l’environnement.

Pour mieux orienter et programmer l’organisation et le développement cohérent des territoires, participer à leur aménagement durable, permettre l’évaluation environnementale et assurer le suivi de l’application des textes réglementaires, les applications satellitaires commencent à faire leurs preuves et offriront, dans les années à venir, des services de plus en plus performants.

L’apport satellitaire au service de la planification des territoires et du suivi de leur utilisation.

La base INIES en réponse au décret et à l’arrêté relatifs à la déclaration environnementale de certains produits de construction

$
0
0
La base INIES en réponse  au décret et à l’arrêté relatifs à la déclaration environnementale de certains produits de construction

La base INIES en réponse au décret et à l’arrêté relatifs à la déclaration environnementale de certains produits de construction

Entrés en vigueur en janvier 2014, le décret et l’arrêté du 23 décembre 2013 relatifs à la déclaration environnementale de certains produits de construction destinés à un usage dans les ouvrages de bâtiment fixent d’une part l’obligation réglementaire de réaliser une déclaration environnementale lorsque la commercialisation d’un produit du bâtiment destiné aux consommateurs s’accompagne d’allégations environnementales. D’autre part, ils précisent la méthodologie pour élaborer cette déclaration environnementale, qui s’appuie sur l’évaluation des indicateurs environnementaux du cycle de vie du produit (ACV).

Créée en 2004, la base INIES apporte des réponses aux exigences de ces textes. Ainsi, les 1235 FDES présentent dans la base INIES sont conformes à la méthode fixée dans l’arrêté. INIES permet également aux fabricants de remplir l’obligation de rendre consultable gratuitement leur FDES auprès des acteurs de la construction. Elle propose enfin un programme opérationnel de vérification par tierce partie indépendante. La base INIES va également encore plus loin : les données mises à disposition par les industriels sont en effet directement exploitables par les outils d’évaluation de la performance environnementale des ouvrages via un « webservice ».

Depuis janvier 2014, les fabricants de produits de construction sont tenus de réaliser une déclaration environnementale à l’appui de toute communication sur des avantages environnementaux de leur produit conformément à la méthode fixée dans l’arrêté du 23 décembre 2013 relatif à la déclaration environnementale de certains produits de construction destinés à un usage dans les ouvrages de bâtiment. Cette exigence s’appliquera au 1er juillet 2017 aux fabricants d’équipements électriques, électroniques et de génie climatique destinés au bâtiment et s’appuiera sur une méthode qui fera l’objet d’un arrêté spécifique.

Dès lors, INIES apporte plusieurs réponses aux exigences de la nouvelle réglementation :

- Elaborées selon la norme NF P01‐010, les 1235 FDES présentes dans INIES répondent d'ores et déjà aux exigences des textes réglementaires. En effet, la méthode fixée dans l’arrêté reprend la norme française NF P01‐010 dont la conformité est depuis toujours la clé d’entrée des FDES dans INIES.

- A partir du 1er juillet 2014, la réglementation rend obligatoire l'utilisation de la méthode définie dans la norme NF EN 15804 pour toutes nouvelles déclarations environnementales : la base INIES est d’ores et déjà organisée pour recevoir ces FDES nouvelle génération. Cette fonctionnalité sera activée en mai 2014 dès la publication de la future norme nationale complémentaire à la NF EN 15804 qui précise certains points méthodologiques et reprend le volet sanitaire de la norme NF P01‐10.

- Consultation gratuite des déclarations environnementales : Les FDES présentes sur la base INIES, à l’initiative des fabricants, sont accessibles gratuitement par tous les acteurs sur le site Internet www.inies.fr.

Les fonctionnalités d’INIES permettent aux fabricants, grâce à des échanges numérisés de données (au format .xml ou .csv) derenseigner le contenu de la déclaration environnementale des produits directement à partir des outils d’ACV produits et d’alimenter la Base de Données Réglementaire.

La base INIES accueillera également prochainement les déclarations environnementales, dénommées Profil Environnemental Produit (PEP), relatives aux équipements électriques, électroniques et de génie climatique destinés au bâtiment.

- Vérification des déclarations environnementales par une tierce partie indépendante (généralisation à partir du 1er juillet 2017) : La base INIES a d’ores et déjà un programme opérationnel de vérification des FDES : le Programme « FDE&S ». Il assure l'enregistrement des FDES vérifiées, collectives ou individuelles, ainsi que l’habilitation de vérificateur. Une partie des FDES présentes dans INIES sont ainsi d’ores et déjà vérifiées par tierce partie indépendante.

INIES participe également aux travaux d’ECO Platform afin de mettre en place des reconnaissances mutuelles entre les programmes de déclaration environnementale européens.

- La base INIES va encore plus loin : les données sur les impacts environnementaux et sanitaires des produits, équipements et services mises à disposition dans la base INIES sont utilisables pour l’évaluation de la performance environnementale des ouvrages. Elle offre ainsi la possibilité, via son « webservice », de disposer des données qu’elle contient en format numérisé au service des outils d’éco‐conception et d’évaluation de la performance environnementale des ouvrages.

Qu’est‐ce qu’une FDES ?

La Fiche de Déclaration Environnementale et Sanitaire, ou FDES, est un outil regroupant des informations multicritères objectives, quantitatives et qualitatives pour déclarer les performances des produits de construction. Elle se compose de 2 volets :

‐ Un volet environnemental qui constitue la déclaration environnementale (approche ACV) ;

‐ Un volet sanitaire, résultant d’études ou d’essais en laboratoire, qui présente des informations sur la contribution du produit de construction à l’évaluation des risques sanitaires, au confort d’usage, au confort hygrothermique, acoustique, etc.

A propos de la base INIES...

Créée en 2004, la base INIES, base française de référence sur les impacts environnementaux et sanitaires des produits, équipements et services du bâtiment, gérée par tous les acteurs du secteur dont les pouvoirs publics, met à la disposition de tous, des Fiches de Déclaration Environnementale et Sanitaire pour l’évaluation de la performance environnementale des bâtiments. INIES est régie par un protocole multipartite. Ce dernier définit les règles de gouvernance de la base grâce à un conseil de surveillance veillant à la pertinence, l’éthique et à la déontologie des informations présentées et un comité technique s'appliquant à rendre l'information disponible la plus claire et la plus homogène possible sur la base des normes de référence établies dans le cadre de la commission de normalisation AFNOR P01E " Développement durable dans la construction ". Depuis 2011, l’Association HQE, association reconnue d’utilité publique, assure le rôle de propriétaire – gestionnaire. Le protocole 2013 – 2017 relatif à la gouvernance rappelle que la base INIES a vocation à poursuivre son développement en regroupant, au‐delà des FDES, l’ensemble des informations nécessaires à l’évaluation de la performance environnementale et sanitaire des bâtiments en facilitant leur exploitation et en inscrivant son action dans un cadre européen voire international.

Part I. – Energie grise : Basse Consommation ne rime pas forcément avec écologie…

HENRI CARTIER-BRESSON au Centre Pompidou jusqu’au 9 JUIN 2014

$
0
0
 HENRI CARTIER-BRESSON au Centre Pompidou jusqu’au 9 JUIN 2014

HENRI CARTIER-BRESSON au Centre Pompidou jusqu’au 9 JUIN 2014

GALERIE 2 , NIVEAU 6 du Centre Pompidou

À travers plus de cinq cents photographies, dessins, peintures, films et documents, le Centre Pompidou consacre une rétrospective inédite à l’œuvre d’Henri Cartier-Bresson, la première en Europe depuis la disparition de l’artiste. Il invite le public à parcourir plus de soixante-dix ans d’une œuvre qui impose le photographe comme l’une des figures majeures de la modernité.

L’exposition dévoile son œuvre, au-delà de « l’instant décisif » qui a longtemps suffit à qualifier son génie de la composition et son habileté à saisir le mouvement. Dix ans après sa mort et maintenant que les milliers de tirages laissés à la postérité ont été réunis par la fondation qui porte son nom, l’exposition invite à une véritable relecture de l’œuvre d’Henri Cartier-Bresson. Celui que l’on a surnommé « l’œil du siècle » fut l’un des grands témoins de notre histoire.

La rétrospective du Centre Pompidou révèle toute la richesse de son travail et la diversité de son parcours de photographe, du Surréalisme à la guerre froide, en passant par la guerre d’Espagne, la Seconde Guerre mondiale et la décolonisation. L’exposition présente les clichés iconiques du photographe et met aussi en lumière des images moins connues : elle réévalue certains reportages plus confidentiels, fait émerger des ensembles de peintures et de dessins et se penche sur les incursions d’Henri Cartier-Bresson dans le domaine du cinéma.

À la fois chronologique et thématique, le parcours s’articule autour de trois axes : la période des années 1926 à 1935, marquées par la fréquentation du groupe surréaliste, les débuts photographiques et les grands voyages à travers le monde ; un second volet est consacré à l’engagement politique d’Henri Cartier-Bresson de son retour des États-Unis en 1936 jusqu’à son nouveau départ pour New York en 1946 ; une troisième séquence s’ouvre avec la création de Magnum Photos en 1947 et s’achève au début des années 1970, au moment où Henri Cartier-Bresson arrête le photo-reportage. À l’occasion de cette rétrospective, un catalogue à la fois ouvrage de référence et beau livre, est publié aux Éditions du Centre Pompidou sous la direction de Clément Chéroux.

Crédit photographique : George Hoyningen-Huene :

Henri Cartier-Bresson, New York, 1935

The Museum of Modern Art, Thomas Walther Collection, Purchase, New York

© George Hoyningen-Huene : © Horst / Courtesy-Staley / Wise Gallery / NYC

Crédit photographique : © 2013. Digital image,

The Museum of Modern Art, New York / Scala, Florence

Alberto Giacometti, rue d’Alésia, Paris, France, 1961 Épreuve gélatino-argentique, tirage réalisé en 1962 Collection Fondation Henri Cartier-Bresson, Paris © Henri Cartier-Bresson / Magnum Photos, courtesy Fondation Henri Cartier-Bresson

Alberto Giacometti, rue d’Alésia, Paris, France, 1961 Épreuve gélatino-argentique, tirage réalisé en 1962 Collection Fondation Henri Cartier-Bresson, Paris © Henri Cartier-Bresson / Magnum Photos, courtesy Fondation Henri Cartier-Bresson

INTRODUCTION

La plupart des grandes rétrospectives qui, ces dernières années, ont été consacrées à Cartier-Bresson (1908-2004), se sont évertuées à définir l’unité de sa vision. La carrière du photographe fut pourtant longue : entamée à la fin des années 1920, elle ne se termine qu’à l’orée du xxie siècle et connaît différentes périodes de développement qu’il est difficile de réduire en une seule et même entité stylistique. À l’opposé de ces approches unificatrices, la présente exposition a pour ambition de montrer qu’il n’y eut pas un, mais bien plusieurs Cartier-Bresson.

Jusqu’à sa disparition en 2004, toutes les expositions monographiques supervisées par le photographe étaient entièrement tirées pour l’occasion en un ensemble d’épreuves d’un ou deux formats, sur des papiers d’une même qualité de grain, de tonalité et de surface. Il en résultait une très grande uniformité qui avait tendance à niveler la diversité de l’œuvre. La présente rétrospective respecte la temporalité historique de la production des images en privilégiant, dans la mesure du possible, les tirages réalisés à l’époque de la prise de vue.

Du surréalisme à Mai 68, en passant par la guerre d’Espagne, la décolonisation et les Trente Glorieuses, l’exposition retrace chronologiquement le parcours de Cartier-Bresson. Dix ans après sa disparition, et à l’issue d’un travail de recherche de plusieurs années, elle propose, loin des mythes et des poncifs, une nouvelle lecture de l’immense corpus d’images qu’il nous a légué. À travers plus de 500 photographies, dessins, peintures, films et documents, regroupant ses plus grandes icônes, mais aussi des images moins connues, l’exposition veut faire l’histoire de l’œuvre et, à travers elle, celle du siècle.

SALLE 1

Préambule

« J’ai toujours eu une passion pour la peinture, écrit Cartier-Bresson. Étant enfant j’en faisais le jeudi et le dimanche, j’y rêvais les autres jours. » Le jeune garçon commence très tôt à dessiner. Il agrémente ses lettres de petits dessins et remplit des carnets de croquis. À la même époque, il commence à photographier, en amateur. Dès le milieu des années 1920, il peint régulièrement auprès de Jacques-Émile Blanche ou de Jean Cottenet avant d’intégrer l’académie d’André Lhote. Ses plus anciennes peintures qui aient été conservées datent de 1924. Elles portent la trace évidente de l’influence de Paul Cézanne. Dans l’atelier d’André Lhote, le jeune homme contracte le virus de la géométrie. Les toiles qu’il peint entre 1926 et 1928 sont très soigneusement composées selon les principes du nombre d’or. Au même moment, Cartier-Bresson commence à fréquenter les surréalistes et à réaliser des collages dans l’esprit de son ami Max Ernst.

SALLE 2

Signes ascendants L’œuvre photographique d’Henri Cartier-Bresson est le produit d’un ensemble de facteurs combinés : une certaine prédisposition artistique, un apprentissage assidu, un peu d’air du temps, des aspirations personnelles, beaucoup de rencontres. Elle voit le jour dans les années 1920, sous le double signe de la peinture et de la photographie pratiquées en amateur, puis se développe à travers quelques moments fondateurs comme le voyage en Afrique en 1930-1931. Elle porte la trace de son amour de l’art, des heures passées à lire ou à regarder la peinture dans les musées. Elle a été profondément marquée par l’enseignement d’André Lhote et la fréquentation de ses amis américains : Julien Levy, Caresse et Harry Crosby, Gretchen et Peter Powel. Auprès du premier, il s’initie aux plaisirs de la composition. En compagnie des seconds, il découvre les photographies d’Eugène Atget et celles de la Nouvelle Vision. Le premier Cartier-Bresson est le produit de ces diverses influences : c’est une complexe alchimie.

SALLE 3

L’attraction surréaliste Par l’intermédiaire de René Crevel, rencontré chez Jacques-Émile Blanche, Cartier-Bresson commence à fréquenter les surréalistes vers 1926. « Trop timide et trop jeune pour prendre la parole », comme il le racontera plus tard, il assiste « en bout de table » à quelques réunions autour d’André Breton dans les cafés de la place Blanche. De ces fréquentations, il retiendra quelques motifs emblématiques de l’imaginaire surréaliste : les objets empaquetés, les corps déformés, les rêveurs aux yeux clos, etc. Mais plus encore, c’est l’attitude surréaliste qui le marque : l’esprit subversif, le goût du jeu, la place laissée à l’inconscient, le plaisir de la déambulation urbaine, une certaine prédisposition à accueillir le hasard. Cartier-Bresson sera particulièrement sensible aux principes de la beauté convulsive énoncés par Breton et ne cessera de les mettre en œuvre au cours des années 1930. De ce point de vue-là, il est sans doute l’un des photographes les plus authentiquement surréalistes de sa génération.

SALLE 4

L’engagement militant Comme la plupart de ses amis surréalistes, Cartier-Bresson partageait nombre des positions politiques des communistes : un farouche anticolonialisme, un engagement sans faille auprès des républicains espagnols et une profonde croyance dans la nécessité de « changer la vie ». Après les violentes émeutes organisées en février 1934, à Paris, par les ligues d’extrême-droite, qui sont à l’époque perçues comme un risque d’extension à la France de la montée en puissance du fascisme européen, son engagement devient plus tangible. Il signe alors plusieurs tracts d’« appel à la lutte » et d’« unité d’action » des forces de gauche. Au cours de ses voyages au Mexique et aux États-Unis, en 1934-1935, la plupart des personnes qu’il fréquente sont très engagées dans le combat révolutionnaire. À son retour à Paris en 1936, Cartier-Bresson s’est radicalisé : il participe régulièrement aux activités de l’Association des écrivains et artistes révolutionnaires (AEAR) et commence à travailler pour la presse communiste.

SALLE 5

Le cinéma et la guerre Cartier-Bresson disait du cinéma qu’il lui avait « appris à voir ». C’est au cours de son voyage au Mexique, en 1934, qu’apparaissent les premiers indices de son désir de réaliser lui-même des films. Le cinéma l’intéresse dans le contexte de son propre engagement militant. Car il s’adresse à une plus large audience que la photographie et permet, par sa structure narrative, de mieux faire passer le message. En 1935, aux États-Unis, il apprend les rudiments de la caméra auprès d’une coopérative de documentaristes très inspirés par les idées politiques autant qu’esthétiques des Soviétiques et réunis autour de Paul Strand sous l’appellation de « Nykino », la contraction des initiales de « New York » et du mot « cinéma » en russe. Avec eux, il réalise un premier court métrage. À son retour à Paris, en 1936, après avoir essayé sans succès de se faire engager comme assistant par Georg Wilhelm Pabst, puis par Luis Buñuel, il inaugure une collaboration avec Jean Renoir qui durera jusqu’à la guerre.

SALLE 6

Le choix du photoreportage En février 1947, Cartier-Bresson inaugure sa première grande rétrospective institutionnelle au Museum of Modern Art (MoMA) de New York. Quelques mois plus tard, avec Robert Capa, David Seymour, George Rodger et William Vandivert, il fonde l’agence Magnum qui deviendra rapidement l’une des références mondiales en matière de photoreportage de qualité. Après son exposition au MoMA, Cartier-Bresson aurait pu choisir de n’être qu’artiste. Mais il décide de devenir pleinement reporter en s’engageant dans l’aventure Magnum. À partir de 1947, et jusqu’au début des années 1970, il multiplie les voyages et les reportages aux quatre coins du monde, travaillant pour à peu près tous les grands magazines illustrés internationaux. Malgré les contraintes de la presse, les délais très réduits du système médiatique et les contingences de la commande, Cartier-Bresson parviendra néanmoins, pendant ces décennies de reportage, à maintenir sa production photographique à un très haut niveau d’excellence.

SALLE 7 Anthropologie visuelle Parallèlement à ses reportages, Cartier-Bresson a également photographié certains sujets de manière récurrente, dans tous les pays où il est allé et sur plusieurs années. Réalisées en marge des reportages, ou de manière totalement autonome, ces séries d’images qui s’interrogent sur quelques-unes des grandes questions de société de la seconde moitié du XXe siècle ont valeur de véritables enquêtes. Elles ne répondent pas à une commande, n’ont pas été faites dans l’urgence imposée par la presse et sont beaucoup plus ambitieuses que nombre de reportages. Ces enquêtes thématiques et transversales que Cartier-Bresson décrit lui-même comme une « combinaison de reportage, de philosophie et d’analyse (sociale, psychologique et autre) » s’apparentent à l’anthropologie visuelle, cette forme de connaissance de l’humain dans laquelle les outils d’enregistrement analogique jouent un rôle essentiel. « Je suis visuel, disait d’ailleurs Cartier-Bresson [...]. J’observe, j’observe, j’observe. C’est par les yeux que je comprends. »

SALLE 8 Après la photographie À partir des années 1970, Cartier-Bresson, qui a désormais dépassé les soixante ans, cesse progressivement de répondre aux commandes de reportages, c’est-à-dire de photographier dans un cadre contraint. Considérant que Magnum s’éloigne chaque jour un peu plus de l’esprit qui avait été à l’origine de sa création, il se retire des affaires de l’agence. Sa renommée internationale n’a cessé de croître : il est devenu une légende vivante. En France, il incarne, presque à lui seul, la reconnaissance institutionnelle de la photographie. Ce qui n’est évidemment pas pour lui plaire. Il passe beaucoup de temps à superviser l’organisation de ses archives, la vente de ses tirages et la réalisation de livres ou d’expositions. S’il a officiellement arrêté de photographier, il garde cependant toujours son Leica à portée de main et réalise occasionnellement des images plus contemplatives. Mais surtout, il va beaucoup dans les musées ou les expositions et passe le plus clair de son temps à dessiner.

Accélérateur linéaire, Université Stanford, États-Unis, 1967 Épreuve gélatino-argentique, tirage réalisé dans les années 1970 24,7 x 16,6 cm Collection Fondation Henri Cartier-Bresson, Paris © Henri Cartier-Bresson / Magnum Photos, courtesy Fondation Henri Cartier-Bresson

Accélérateur linéaire, Université Stanford, États-Unis, 1967 Épreuve gélatino-argentique, tirage réalisé dans les années 1970 24,7 x 16,6 cm Collection Fondation Henri Cartier-Bresson, Paris © Henri Cartier-Bresson / Magnum Photos, courtesy Fondation Henri Cartier-Bresson

BIOGRAPHIE DE L’ARTISTE

Par Julie Jones Tiré de l’Album de l’exposition

1908

Naissance d’Henri Cartier-Bresson le 22 août 1908 à Chanteloup-en-Brie (Seine-et-Marne) dans une famille de grands industriels du textile.

1926-1928

Vers 1926, René Crevel l’introduit auprès des surréalistes. Il assiste régulièrement aux réunions du groupe dont les membres adhèrent alors au parti communiste. À l’automne, il intègre l’académie du peintre André Lhote, qu’il quitte début 1928.

1929

Il fréquente les Américains Harry et Caresse Crosby, installés en France depuis la fin de la Première Guerre mondiale. Fondateurs des éditions Black Sun Press, ils publient James Joyce, Ernest Hemingway, Ezra Pound, mais aussi Paul Éluard et René Crevel. Chez eux, Cartier-Bresson retrouve André Breton, Max Ernst et Salvador Dalí. Il croise éditeurs, galeristes et collectionneurs américains : Eugene Jolas, Lincoln Kirstein, Monroe Wheeler et Julien Levy, qui vient d’acheter le fonds d’Eugène Atget. Les photographes amateurs Peter et Gretchen Powel l’initient aux innovations formelles de la Straight Photography américaine et à celles de la Nouvelle Vision européenne.

1930-1932

En octobre 1930, Cartier-Bresson s’embarque pour l’Afrique et gagne la Côte-d’Ivoire, le Cameroun, le Togo puis le Soudan français. À son retour un an plus tard, il entreprend avec André Pieyre de Mandiargues un voyage en Europe de l’Est, puis, armé de son premier Leica, part en Italie.Charles Peignot publie quelques-unes de ses images dans Arts et métiers graphiques.

1933

Il fréquente l’Association des écrivains et artistes révolutionnaires (AEAR) à Paris. Il se rend à Alicante, Barcelone, Tolède, Madrid et au Maroc espagnol. Photographiant pour son propre plaisir, il réalise également ses premiers reportages pour la presse.Fin septembre, le galeriste new-yorkais Julien Levy lui consacre une exposition. Deux mois plus tard, c’est au tour du Club Ateneo à Madrid de présenter ses images.

1934

Il affirme son engagement populaire et militant en signant « Henri Cartier » jusqu’à la fin de la guerre. En juin, il part au Mexique pour un an ; il y côtoie des artistes, écrivains et intellectuels communistes, la plupart proches du Parti national révolutionnaire au pouvoir, tels que Guadalupe Marín, Langston Hughes, Andrés Henestrosa, et Manuel Álvarez Bravo.

1935

En mars, ses photographies sont exposées aux côtés de celles d’Álvarez Bravo au Palacio de Bellas Artes de Mexico. Il rejoint New York le mois suivant pour participer à l’exposition « Documentary and Anti-Graphic Photographs by Cartier-Bresson, Walker Evans & Álvarez Bravo » chez Julien Levy.Il se rapproche alors de Nykino, une coopérative de cinéastes militants ralliée aux idées politiques et esthétiques des Soviétiques. Par leur intermédiaire et grâce à Langston Hughes, il est sensibilisé au mouvement de la Renaissance d’Harlem.En mai-juin, il participe à l’exposition « Documents de la vie sociale », organisée par l’AEAR

à la Galerie de La Pléiade à Paris.Il privilégie progressivement le cinéma à la photographie.

1936-1939

Cartier-Bresson rencontre Jean Renoir. Celui-ci l’engage comme assistant sur La vie est à nous, film commandé par le parti communiste pour la campagne des élections législatives de mai 1936. Il collabore par la suite aux tournages de Partie de campagne (1936) et de La Règle du jeu (1939).Il travaille régulièrement pour la presse communiste.En mai 1937, il se marie avec la danseuse indonésienne Carolina Jeanne de Souza-Ijke, dite « Ratna Mohini » ou « Eli ».Membre de la coopérative Ciné-Liberté (la section film de l’AEAR), Cartier-Bresson réalise en 1937 un premier documentaire sur la guerre d’Espagne : Victoire de la vie, avec la collaboration de Herbert Kline, Jacques Lemare, Pierre Unik et Laurette Séjourné (Laura Séjour). Suivront deux autres films : With the Abraham Lincoln Brigade in Spain (1937) et L’Espagne vivra (1938).

1940-1945

Mobilisé, il rejoint l’unité « Film et photographie » de la 3e armée. Fait prisonnier le 23 juin 1940, il s’évade trois ans plus tard et rejoint avec l’aide d’Aragon un groupe de résistants communistes, futur Mouvement national des prisonniers de guerre et déportés (MNPGD). Il en devient le représentant officiel au sein du Comité de libération du cinéma et est également chargé d’organiser un Comité de libération de la photographie de presse. En 1945, les services américains de l’Office of War Information et le MNPGD lui commandent un film sur le rapatriement des prisonniers (Le Retour).

1947

En février, sa première rétrospective ouvre au Museum of Modern Art (MoMA) de New York. Elle est initiée par Monroe Wheeler, qu’il avait rencontré chez les Crosby. Quelques mois plus tard, Cartier-Bresson fonde la coopérative Magnum Photos aux côtés de Robert Capa, George Rodger, David Seymour (Chim) et William Vandivert. Dès lors, ses reportages en noir et blanc ou en couleurs paraissent régulièrement dans Life, Holiday, Illustrated, Paris Match...En décembre, il arrive en Inde avec Eli, peu après la Déclaration d’indépendance.

1948-1949

Le 30 janvier 1948, il rencontre Gandhi, quelques heures avant son assassinat. Les photographies qu’il réalise lors des funérailles seront publiées par Life et feront le tour du monde.Le 3 décembre, Cartier-Bresson découvre Pékin au moment où l’Armée populaire de libération menée par Mao Zedong est sur le point de renverser le gouvernement nationaliste de Tchang Kaï-chek ; il y reste jusqu’en septembre 1949.

1952

Il publie son premier livre avec Tériade (éditions Verve) : Images à la sauvette. La version américaine paraît conjointement aux éditions Simon & Schuster sous le titre The Decisive Moment.

1954-1955

Danses à Bali paraît chez Robert Delpire, avec un texte d’Antonin Artaud.En juillet 1954, Cartier-Bresson arrive à Moscou. Il est le premier reporter occidental en URSS depuis 1947.L’année suivante, il participe à l’exposition « The Family of Man » organisée par Edward Steichen au MoMA de New York. Le Musée des arts décoratifs de Paris lui consacre une rétrospective. Avec Tériade, il publie Les Européens (1955).

1963-1965

Il se rend à Cuba peu de temps après la crise des missiles, puis passe quelques mois au Japon.

1966

Il rencontre la photographe Martine Franck, qu’il épouse en 1970.

1968-1974

Suite aux mutations survenues dans la société française lors des événements de Mai 1968, il entame en octobre un reportage sur ses compatriotes : Vive la France sera publié en 1970. À partir de 1974, il abandonne progressivement le reportage pour se consacrer au portrait et au paysage photographique, ainsi qu’à la valorisation de son oeuvre. Il se remet au dessin.

1979

L’ouvrage Henri Cartier-Bresson : Photographe, publié chez Delpire, accompagne l’exposition itinérante éponyme.

1980

Le Musée d’art moderne de la Ville de Paris présente l’exposition « Henri Cartier-Bresson : 300 photographies de 1927 à 1980 ».

2003

La Bibliothèque nationale de France présente la rétrospective « De qui s’agit-il ? ». La Fondation Henri Cartier-Bresson est créée à Paris.

2004

Henri Cartier-Bresson s’éteint le 3 août à Montjustin, en Provence.

Centre Pompidou 75191 Paris cedex 04 téléphone 00 33 (0)1 44 78 12 33 métro Hôtel de Ville, Rambuteau

Horaires

Exposition ouverte de 11h à 21h tous les jours, sauf le mardi Nocturnes jusqu’à 23h, tous les jours sauf mardi

Tarifs

11 à 13 €, selon période tarif réduit : 9 à 10 € Valable le jour même pour le musée national d’art moderne et l’ensemble des expositions

Accès gratuit pour les adhérents du Centre Pompidou (porteurs du laissez-passer annuel)

Renseignements

01 44 78 14 63 Billet imprimable à domicile www.centrepompidou.fr

Martine Franck, Paris, France, 1967 Épreuve gélatino-argentique, tirage d’époque 30,2 x 44,8 cm Collection Eric et Louise Franck, Londres © Henri Cartier-Bresson / Magnum Photos, courtesy Fondation Henri Cartier-Bresson

Martine Franck, Paris, France, 1967 Épreuve gélatino-argentique, tirage d’époque 30,2 x 44,8 cm Collection Eric et Louise Franck, Londres © Henri Cartier-Bresson / Magnum Photos, courtesy Fondation Henri Cartier-Bresson

Pensée du Jour

$
0
0
Pensée du Jour

Pensée du Jour

« Les obstacles ne doivent pas vous arrêter. Si vous vous trouvez face à un mur, ne faites pas demi-tour et n’abandonnez pas. Trouvez comment l’escalader, le traverser ou le contourner. »

Michael Jordan 1963

Viewing all 2312 articles
Browse latest View live