Quantcast
Channel: Le blog de l'habitat durable
Viewing all 2312 articles
Browse latest View live

DU GAZ MOINS CHER – 15,5 % DE RABAIS

$
0
0
DU GAZ MOINS CHER – 15,5 % DE RABAIS

DU GAZ MOINS CHER – 15,5 % DE RABAIS

Avec plus de 100 000 inscrits en trois semaines, l’opération « gaz moins cher ensemble» destinée à dynamiser la concurrence sur le marché du gaz, a réussi son pari en fédérant plus de 140 000 consommateurs.

Cette campagne a donc pour but de réunir un très grand nombre de consommateurs pour faire baisser la facture de gaz, selon la logique du « soyons plus pour payer moins » !, alors que le tarif réglementé vient encore d’augmenter de 0,5% au 1er novembre.

L’UFC-Que Choisir s’est donc félicité de l’inscription de plus de 140 000 consommateurs à la campagne www.gazmoinscherensemble.fr lancée le mois dernier, et, forte de ce succès quantitatif. Ces 142 490 inscriptions auront donc comme fournisseur Lampiris.

L’association a dévoilé l’offre finale particulièrement attractive proposée par le fournisseur lauréat, aboutissant sur un an, à une économie moyenne de 190 euros par consommateur par rapport au tarif réglementé et, surtout, plus de 20 millions d’euros potentiels de pouvoir d’achat pour les inscrits.

Profil des inscrits : le parfait reflet du marché du gaz

Le paysage géographique des inscriptions colle parfaitement à la répartition des résidences principales chauffées au gaz. Les 3 premières régions, représentant près du tiers des inscrits, restent ainsi l’Ile-de-France (plus de 20 000), la Région Rhône-Alpes (12 000), le Nord-Pas de Calais (9 000). De même, 74% des 130 000 inscrits sont au tarif régulé et ont une consommation moyenne de plus de 16 000 kWh, conforme à la moyenne nationale, 17 000 kWh. Avec une telle mobilisation et consommation, les futurs souscripteurs vont pouvoir réaliser de très substantielles économies grâce à l’offre finale…

190 euros en moyenne d’économies par souscripteur : la meilleure offre du marché

Grâce à la mobilisation des consommateurs, l’offre finale du fournisseur lauréat est bel et bien la meilleure offre sur le marché du gaz : 15,5% d’économies par rapport au tarif réglementé (H.T) du kWh de Novembre (3,5 points de plus que la meilleure offre du marché) et une remise individuelle de 35 euros sur la facture (A valoir sur la deuxième facture en cas de facturation bimestrielle, et au bout de 6 mois en cas de facturation annuelle). Le prix de cette offre finale est fixe pendant un an à la différence du tarif réglementé de vente qui évolue, lui, tous les mois. Concrètement, pour un abonné au gaz ayant une consommation annuelle moyenne de 17 000 kWh, l’économie sur un an par rapport au tarif réglementé est de 185 € (TTC) à Lille ou Lyon, 187 € à Paris, et pas moins de 195 € à Millau ou Cassis. Substantielles au niveau individuel, l’économie collective peut être colossale : tous profils confondus (abonnés au tarif régulé, abonnés au marché libre), c’est plus de 20 millions d’euros potentiels de pouvoir d’achat !

Une campagne au bénéfice de tous les consommateurs

Loin de bénéficier aux seuls inscrits, la campagne « gaz moins cher ensemble » a permis une dynamisation des offres des fournisseurs alternatifs qui proposent aujourd’hui des offres plus attractives que par le passé. Par ailleurs, de nombreux groupements (copropriétés, collectivités) se sont rapprochés de l’UFC-Que Choisir pour organiser prochainement des opérations similaires.

Avec cette campagne, l’UFC-Que Choisir a donc atteint l’objectif individuel et collectif qu’elle s’était fixé : créer un véritable pouvoir de marché des consommateurs pour faire émerger la meilleure offre.

Le prix de cette offre finale est fixe pendant un an à la différence du tarif réglementé de vente qui évolue, lui, tous les mois. De même, soucieuse d’assurer, au-delà du gain en pouvoir d’achat, une sécurité juridique aux souscripteurs, l’offre « gaz moins cher ensemble » initiée par l’UFC-Que Choisir comprend un contrat sûr, plus protecteur des consommateurs que ceux classiquement pratiqués, ainsi que l’implication de la Fédération dans le traitement des éventuelles réclamations.


Les 7 sept permis exclusifs de recherches d’hydrocarbures d’Hess Oil ne seront pas signés…

$
0
0
Les 7 sept permis exclusifs de recherches d’hydrocarbures d’Hess Oil ne seront pas signés…

Les 7 sept permis exclusifs de recherches d’hydrocarbures d’Hess Oil ne seront pas signés…

Dans un précédent article, « Le spectre du Gaz de schiste refait surface », le blog a relayé une information d’une grande importance sur l’octroi éventuel de 7 permis de recherches d’hydrocarbures à la société Hess Oil.

Dans un communiqué pdu ministère du Développement Durable, publié ce jour, Philippe Martin a pris la décision de refuser la signature concernant les 7 permis de recherches d’hydrocarbures qu’elle réclamait par mutation.

Détails :

Philippe MARTIN, ministre de l’Écologie, du Développement durable et de l’Énergie, a donc décidé de refuser d’autoriser la mutation au profit de la société Hess Oil de sept permis exclusifs de recherches d'hydrocarbures, délivrés par le Gouvernement précédent à la société Toréador et situés dans le bassin parisien.

Le Ministre a déclaré, à cette occasion : « pour traiter ce dossier, j'ai choisi le travail, la transparence et la concertation. J'ai en effet tenu -ce qui ne s’était jamais fait auparavant- à croiser l'expertise technique de mes services à l'expertise citoyenne des collectifs anti-gaz et huiles de schiste qui ont été reçus à plusieurs reprises accompagnés des élus concernés par ces permis. Je prends mes décisions en connaissance de cause et je les assume ».

Il ressort de ces expertises que :

- Ces sept permis présentent une difficulté commune : la filiale française de la société américaine Hess Oil, qui a déposé les demandes de mutation, s'apparente à une "coquille vide" qui ne dispose pas des compétences techniques propres, qui sont requises par le droit minier.

- Deux permis (permis dits d’« Aufferville » et de « Courtenay ») sont désormais expirés et, de ce fait, ne peuvent plus être transférés à un nouveau titulaire.

- Enfin, certains permis, comme celui dit de « Château-Thierry », posent la question de savoir si l'on peut aujourd’hui, compte tenu de l’interdiction générale et absolue de recourir à la fracturation hydraulique posée par la loi du 13 juillet 2011, autoriser la mutation d'un permis dont les objectifs initiaux étaient incontestablement et exclusivement d'explorer des huiles et gaz de schiste. Même si la société Hess Oil a déclaré, afin de se conformer à cette loi, qu'elle ne l’utiliserait pas, les roches-mères visées par cette société dans ses demandes de mutation ne pourraient être explorées que par cette technique interdite sur le territoire national. Dans ces conditions, les permis concernés ne peuvent plus déboucher sur une exploration effective, notamment sur aucun forage pilote.

La mutation demandée est dans ce cas sans objet1. Par ailleurs, l’État avait déjà dû, au début de l’année 2013, interdire à Hess Oil d’effectuer un forage horizontal, caractéristique de la fracturation hydraulique, et preuve que cette société n'avait pas renoncé à son projet initial.

Philippe MARTIN précise qu’il a, pour sa part, souhaité avant de rendre sa décision sur ces demandes de mutation attendre la décision du Conseil constitutionnel sur la question prioritaire de constitutionnalité (QPC) posée par la société texane Schuepbach dont deux permis avaient été abrogés en application de la loi du 13 juillet 2011. Le Conseil constitutionnel, saisi le 12 juillet 2013 par le Conseil d’État, a rendu le 11 octobre dernier une décision qui a changé la donne juridiquement puisque l’interdiction de la fracturation, dont les dangers sont désormais établis, est ainsi devenue définitive.

En outre, le Ministre rappelle que « le sujet des gaz de schiste et de leur prétendue manne financière est un sujet controversé. La compétitivité de nos entreprises et l’amélioration du pouvoir d’achat des Français passent par la transition énergétique et par la mise en œuvre d’un nouvel équilibre de notre approvisionnement : moins d’énergies fossiles, moins de nucléaire et davantage de renouvelables et d’efficacité énergétique. Je déposerai le projet de loi sur la transition énergétique au Parlement au printemps 2014 ».

Le 26 septembre 2013, l’État avait été condamné, dans le cadre du contentieux ouvert par Hess Oil, à prendre rapidement, et sous astreinte, position sur ces demandes. Cette société réclame aujourd’hui à l’État environ 30 000 euros par demande de mutation. Une décision étant désormais prise, le ministère demandera, lors de l’audience prévue le 6 décembre prochain, une remise de cette somme.

Enfin, Philippe MARTIN tient à affirmer sa confiance aux services du ministère qui ont été injustement mis en cause publiquement au cours de ces dernières semaines et qui ont, tout au long de ce dossier, parfaitement fait leur travail.

Une décision responsable qui va à l’encontre des stratégies menées par les lobbys de la fracturation hydraulique, et qui doit faire naître une volonté plus farouche pour engager un processus de sobriété énergétique en développant de nouveaux concepts durables et renouvelables….

Comme l’a souligné Arnaud Gossement, Avocat au Barreau de Paris - Docteur en droit, spécialiste en droit public et en droit de l'environnement, « le combat n'est pas terminé mais une belle bataille vient d'être gagnée. » A cet effet, des Parlementaires ont rouvert mercredi 26 novembre le dossier polémique du gaz de schiste, avec un rapport favorable à une exploration expérimentale de cette ressource énergétique au moyen de la fracturation hydraulique "améliorée" ou de méthodes alternatives à cette technique interdite en France.

"Nous constatons que le dossier du gaz de schiste a été diabolisé en France", a regretté le sénateur UMP de l'Orne Jean-Claude Lenoir, qui a dirigé le rapport avec le député socialiste du Nord Christian Bataille.

"Nous ne disons pas qu'il faut consommer plus d'hydrocarbures. Nous disons qu'il faut consommer moins d'hydrocarbures progressivement, mais que les hydrocarbures que nous consommons doivent en priorité venir de notre sous- sol si ces ressources sont avérées", a-t-il ajouté.

Pour évaluer les ressources françaises en gaz et en pétrole de schiste, les deux co-rapporteurs du texte plaident pour "quelques dizaines de forages expérimentaux" en France afin de tester "la fracturation hydraulique améliorée ou des techniques alternatives".

Les deux parlementaires avaient été chargés en début d'année d'étudier les "techniques alternatives" à la fracturation hydraulique par l'Office parlementaire d'évaluation des choix scientifiques et technologiques (Opecst), organisme qui rassemble des élus de tous bords.

La fracturation hydraulique, très controversée en raison des risques qu'elle fait peser sur l'environnement, a été interdite par une loi de juillet 2011, validée en octobre dernier par le Conseil constitutionnel.

Mais depuis l'adoption de cette loi, les recherches sur cette technologie et d'autres techniques ont évolué "très rapidement", a constaté M. Lenoir. "La fracturation hydraulique est aujourd'hui la méthode la plus employée, mais ce n'est pas la seule technique disponible et on peut envisager d'autres techniques", comme la fracturation au propane, déjà opérationnelle.

"Malheureusement, la recherche se développe partout sauf en France", a-t-il ajouté.

Les auteurs du rapport ont fait remarquer que la loi de juillet 2011 prévoyait également des expérimentations scientifiques, et ont réclamé qu'elle soit "pleinement" appliquée.

"S'opposer à la recherche, c'est de l'obscurantisme", s'est insurgé Christian Bataille.

Réussir avec un marketing responsable…

$
0
0
Réussir avec un marketing responsable…

Réussir avec un marketing responsable…

Une plateforme digitale a été lancée le mardi 26 novembre 2013, Reussir-avec-un-marketing-responsable.org. Conçue à l’initiative d’Elizabeth Pastore-Reiss, Ethicity (Groupe Greenflex), et David Garbous, personnalité marketing de l’année 2012, avec le soutien de l’ADEME, en partenariat avec l’UDA (Union des annonceurs), Prodimarques et l’Adetem (Association des professionnels du marketing), la Plateforme digitale offre aux équipes marketing, parce qu’elles ont la main sur l’offre de produits (biens et services), les clefs d’une démarche contribuant à une intégration plus systématique du développement durable dans l’offre en donnant des sources d’inspiration à chacun.

Ces équipe marketing ont un rôle important à jouer dans l’intégration par leur entreprise des enjeux environnementaux, sociaux et économiques. La Plateforme digitale souhaite apporter une valeur ajoutée aux marques, leur permettant de gagner en compétitivité, car le marketing plus responsable est source de valeur.

La plateforme

La plateforme digitale Reussir-avec-un-marketing-responsable.org met à disposition des fiches pratiques proposées par des marques qui ont réussi : elles y analysent l’impact environnemental et/ou social, l’impact sur la marque, les clefs de succès de leurs démarches...

A ce jour, une vingtaine de fiches sont en ligne. Pour les obtenir, la Plateforme a lancé deux appels à candidatures à destination des marketeurs, qui ont proposé de partager leur expérience. Elle a reçu presque une quarantaine de pratiques, analysées par le comité de sélection selon des critères spécifiques : aspect innovant ; création de valeur (sociétale, clients, entreprise) ; cohérence et vision de long terme ; potentiel de déploiement ; enseignements retirés.

Les fiches en ligne regroupent des démarches variées qui ont su convaincre les consommateurs :

• démarches de grandes et petites entreprises

• produits et services variés : agroalimentaire, produit d’entretien, service de renseignements

• démarches portant sur des enjeux environnementaux et/ou sociaux

• initiatives en propre ou collaboratives

On y trouve par exemple des fiches sur des gammes d’accessoires confectionnées à partir de déchets, des marques alimentaires qui ont mis en place des filières d’approvisionnement plus durables, des innovations packaging, des produits solidaires, des démarches globales pour réduire l’impact sur le cycle de vie du produit...

Ces dossiers renseignent que ces pratiques de marketing, au-delà de leur impact environnemental ou social, peuvent être de véritables sources de valeur pour les marques :

• Réduction des coûts : certains efforts d’écoconception se sont avérés payants. On note, pour l’un, une réduction des coûts de transports de 50%, pour l’autre, une réduction des achats de PET de 4000 T par an...

• Différenciation stratégique et gain de PDM : les marques qui ont intégré une dimension plus écologique à leurs produits nous font part de gain de PDM de l’ordre de 0,5 à 3 points, le palmarès revenant à un produit qui est passé d’une décroissance valeur de – 7 pts à une croissance de + 9% en un an.

• Référencement et visibilité : certaines marques ont pu être référencées auprès de nouveaux distributeurs grâce à leurs efforts environnementaux, d’autres ont eu des retombées presse importantes suite à la mise en place de leur démarche (jusque 260 retombées).

• Relation avec les salariés et partenaires : de nombreuses marques notent la fierté des salariés ou des relations enrichies avec leurs fournisseurs.

Le site regroupe également les ressources utiles existantes en matière de marketing responsable : études, livres, sites web... qui permettront de nourrir les marketeurs souhaitant en savoir plus.

Enseignements et perspectives

Outre la mise à disposition de fiches pratiques, la plateforme anime des ateliers avec l’ensemble des marques qui ont répondu aux appels à candidatures, que leurs pratiques aient été retenues ou non. Ces partages d'expériences permettent d’identifier au fur et à mesure les clefs pour lever les freins internes et externes autour des projets de marketing responsable, ainsi que les conditions de réussite. Une première analyse a déjà permis de classer les clefs de succès :

• Cohérence : rester cohérent au regard des enjeux et impacts réels du produit/service, des valeurs de la marque, de la stratégie de groupe

• Co-construction : impliquer et mobiliser la direction, l’ensemble des métiers touchés (achats, R&D, qualité, commerciaux...) et les parties prenantes externes qui sont légitimes sur le sujet

• Vision et patience : avoir une vision et des objectifs de long terme partagés et atteignables et être patient, car ce sont souvent des projets de longue haleine dont l’impact sur la marque n’est pas immédiat

• Désirabilité : partir des besoins et attentes consommateurs avant toute chose et ne pas oublier l’utilité, l’efficacité, l’esthétique et l’innovation

• Mesure(s): mettre en place des indicateurs pour mesurer l’ensemble des impacts: environnementaux, sociaux, financiers, image... pour bien les maîtriser

• Juste communication : être transparent sur la démarche (ne pas cacher les points faibles éventuels), faire attention aux termes employés (ne pas survaloriser l’impact), être factuel, simple, pédagogique et sélectionner les informations qui intéressent les consommateurs.

Cette démarche ne se limite cependant pas à la plateforme. En partenariat avec La Revue des Marques et Marketing Magazine, la plateforme souhaite, dès l’année prochaine, relayer les pratiques inspirantes de façon plus large dans la presse et via le site.

Elle va également prolonger et pousser l’analyse plus loin à travers un partenariat avec la chaire Marques Responsables de Science Com (Audencia Group), et tisser des liens à l’international.

ATLAS DU GRAND PARIS 2013

$
0
0
ATLAS DU GRAND PARIS 2013

ATLAS DU GRAND PARIS 2013

Le Grand Paris n’est-il pas la somme de surfaces et de nombres de personnes ?

Un Atlas publié par l’APUR, Atelier Parisien d’Urbanisme, tente d’élargir la réflexion sur le territoire parisien qui révèlent une multitude diversité à travers de multiples identités

« L’Atlas a cette qualité, il révèle la forme des villes qui n’ont pas encore de forme ni de nom ». Italo Calvino, Les villes invisibles, édition française Gallimard

Dans quelques années, le paysage politique et administratif de la métropole parisienne sera très différent. Un projet métropolitain aura été engagé, avec une affirmation espérée de nos différences. Il suffit pour s’en convaincre de voir comment chacun aujourd’hui décrit son Grand Paris, qu’il habite Paris ou les côteaux de Montreuil, travaille à la Défense ou à Massy Palaiseau, comment chaque commune, chaque quartier affirme son identité. Pour autant, le visiteur attentif sera surpris par la ressemblance des projets qui se réalisent et comment, sans vraiment l’avoir décidé, nous réduisons les différences de nos territoires par les règles, les normes, la prise en compte des contraintes, et la conduite des projets. Cette singularité des lieux, si précieuse, tant aimée, peinte, dessinée, disparaît.

L’Atlas du Grand Paris 2013 est une contribution pour la culture de ces différences, et la compréhension des identités de la métropole. Il est aussi l’occasion d’une lecture partagée de nos cartes et données, souhaitant s’enrichir de l’expertise des chercheurs et faciliter la place grandissante du citoyen dans la vie de la citée. Trois jeux de « cartes d’identités » essentielles ont été réunis, des plans /cartes, de points/carreaux et de lignes /promenades, en référence aux fondamentaux de l’art pictural tel que définis par Kandisky. Les trois « jeux de cartes » sont sans hiérarchie, d’importances égales et constitutifs de l’analyse des territoires. Ils sont pour nous des moyens d’enrichissement des projets.

Michel Lussault et Patricia Pelloux ont exploré les cartes de la géographie « durable ». Au travers du jeu des échelles, ils nous font découvrir une ville-métropole dont la richesse s’inscrit dans la complexité et dont l’hétéro polarité est la construction. Alexandre Labasse et Christiane Blancot nous ont guidés dans le choix des tissus urbains et des carreaux de 400x400. Ils nous permettent de jouer au jeu des différences, comparant la diversité des architectures, des formes urbaines et la similitude de ce qui s’y passe. Paola Viganó et Jean Christophe Choblet ont beaucoup arpenté les lieux métropolitains ; ils nous invitent à découvrir les frontières invisibles de la métropole et comment la promenade prise comme espace de projet peut recréer des liens entre les lieux. Frédéric Gilli s’est essayé à l’exercice du portrait des grands parisiens.

Un choix simple, une lecture partagée au service de l’infinie diversité du Grand Paris. Francois Maspero, dans son ouvrage1 racontant ses explorations le long du RER B parlait de l’importance du temps pour comprendre : « Qu’importe si aujourd’hui la majorité de la population française vit dans des banlieues [...] et que le centre des villes n’est qu’une pâle survivance de temps quasi préhistoriques et une vitrine fragile des temps modernes. Nous avions plongé dans l’inconnu. L’inconnu où nous vivons tous. C’était simple. Il suffisait d’y penser [...] Chacun peut faire ça. Cela demande juste autant de peine que de composer un album de famille. Un peu de bonne volonté, un peu de disponibilité, un peu de temps surtout… Mais il faut croire que ces gens-là n’ont pas le temps. »

Le temps pour une diversité cultivée, l’atlas du Grand Paris 2013 en forme le vœu. Et, avec leurs cartes/plans, leurs carreaux/points et leurs lignes /promenades, si les cartes d’identités proposées ne sont pas uniques, elles sont notre contribution en 2013 pour le droit à la différence dans le Grand Paris en toutes circonstances.

L'Atelier parisien d’urbanisme (Apur) a pour mission l’étude et l’analyse des évolutions urbaines et sociétales participant à la définition des politiques publiques. Plus de 85 géomaticiens, cartographes, ingénieurs, sociologues, architectes, géographes, économistes, statisticiens y travaillent et contribuent à l'élaboration des projets pour Paris et la métropole parisienne. L’Atelier est aujourd’hui autant un lieu de fabrication de données et de cartes accessibles à tous qu’une plate-forme de conception et d’échange prospectif au service de l’ensemble des acteurs du cœur de l’agglomération. Nous dressons depuis plus d’un demi siècle des cartes de Paris, de la petite couronne, des Grands Paris, de la métropole selon les termes employés.

1Extrait de l’ouvrage de François Maspero p. 335/336, Les passagers du Roissy-Express – Éditions du Seuil, septembre 1990

Sommaire

p. 3 Éditorial

Bertrand Delanoë, Maire de Paris

p. 4 Représenter la métropole, un choix politique

Pierre Mansat, adjoint au Maire de Paris, en charge de Paris Métropole et des collectivités territoriales

p. 8 Introduction : cartes d’identités

Dominique ALBA, architecte, directrice générale de l’Apur

p. 10 Cahier 1. Repères

p. 20 Cahier 2. Une géographie paradoxale

Michel Lussault, géographe, professeur des universités et Patricia Pelloux, directrice métropole et grands territoires à l’Apur

p. 62 Cahier 3. La métropole habitée

Alexandre Labasse, architecte, directeur général du Pavillon de l’Arsenal et Christiane Blancot, directrice villes et formes urbaines à l’Apur

p. 142 Cahier 4. Les promenades du Grand Paris

Paola Viganò, architecte, docteur en urbanisme et Jean-Christophe Choblet, scénographe urbain à l’Apur

p. 202 Portrait : Représenter les « grands parisiens »

Frédéric GILLI, géographe et docteur en économie

p. 211 Biographies et bibliographie, remerciements

Édition : Apur / Wildproject

novembre 2013

221 pages

ISBN : 978-2-918-490-296

Langue : Français

Prix de lancement jusqu'au 31 décembre 2013 : 19 €

A compter du 1er janvier 2014 : 23 €

Prenez le contrôle de Fort McMurray, faites triompher votre vision du monde !

$
0
0
Prenez le contrôle de Fort McMurray, faites triompher votre vision du monde !

Prenez le contrôle de Fort McMurray, faites triompher votre vision du monde !

ARTE lance Fort McMoney, un jeu documentaire de David Dufresne Au cœur de l’industrie pétrolière sur ARTE.TV/FORTMcMONEY

Les internautes du monde entier peuvent désormais prendre les commandes de fort McMurray au Canada, et décider de l’avenir du plus important projet énergétique de la planète.

Imaginé par David Dufresne en collaboration avec le photographe Philippe Brault, ce jeu documentaire d’un nouveau genre est le résultat de plus de 2 ans d’enquête.

Produit par l’agence canadienne TOXA et l’office national du film du Canada (ONF) en association avec ARTE et en partenariat avec le Monde, Radio-Canada, le globe and Mail et Süddeutsche.de, Fort McMoney propose une expérience Web immersive trilingue (anglais, français et allemand) se déroulant à Fort McMurray, une ville champignon où l’on extrait chaque jour plus d’un million et demi de barils de pétrole issu des sables bitumineux ; une manne financière avec des conséquences environnementales préoccupantes. Pendant quatre semaines, les utilisateurs peuvent décider de l’avenir virtuel de la ville tout en se documentant sur son histoire sociale, économique, politique et culturelle afin de mieux comprendre les enjeux. Chaque participant a la possibilité de faire valoir son opinion et de convaincre les autres joueurs. Quelle sera leur position ? Donneront-ils la priorité à l’économie ou à l’environnement ?...

Le jeu sera prolongé sur l’antenne d’ARTE au printemps 2014 par le documentaire FortMcMoney qui intègrera des contenus générés par la communauté d’internautes ayant participé au jeu.

Prenez le contrôle de Fort McMurray, faites triompher votre vision du monde !

Fort McMoney est une plongée documentaire, interactive et ludique dans Fort McMurray, une ville de la démesure, où se joue une partie du sort énergétique de la planète. En dix ans, la ville est passée de quelques dizaines de milliers d’habitants à plus de 100 000. On y extrait chaque jour plus d’un million et demi de barils de pétrole. Dans moins de 20 ans, on en tirera quotidiennement cinq millions. En participant au jeu documentaire Fort McMoney, vous serez le témoin privilégié de ces changements et l’acteur essentiel de la destinée virtuelle de cette ville hors du commun.

Entre les partisans de l’or noir et ses opposants, la tension est forte. Il est question de milliards de dollars, d’indépendance énergétique, d’écologie et d’enjeux sociaux parfois irréversibles.

Avec les sables bitumineux de l’Alberta, le Canada possède la troisième plus grande réserve de pétrole du monde. Mais cette formidable réserve a un coût environnemental. L’exploitation des sables bitumineux compte en effet pour 7 % du total des émissions de gaz à effet de serre du pays.

Et vous? Que feriez-vous?

Le jeu documentaire Fort McMoney vous permet d’être virtuellement aux commandes de la ville de Fort McMurray et de décider de son avenir.

Durant quatre semaines, vous pourrez vous promener dans la ville, rencontrer ses habitants, leur poser des questions, voter à des référendums, prendre des décisions, suivre l’évolution des choix de l’ensemble de la communauté, influer sur les changements... Vous aurez entre les mains un pouvoir de décision sur l’avenir virtuel de la ville et le film que vous suivez.

Ce jeu documentaire trilingue — anglais, français, allemand — a été créé par David Dufresne. Produit par Toxa et l’Office national du film du Canada, en association avec ARTE et en partenariat avec Le Monde, Radio-Canada, le Globe and Mail et Süddeutsche.de.

Une expérience individuelle

Chaque semaine, vous explorez la ville selon une thématique différente.

Au fil des rencontres avec les habitants, de l’exploration de la ville et des informations sur les pétrolières, vous serez à même de mieux comprendre les véritables enjeux de Fort McMoney.

Vous participerez en temps réel avec l’ensemble de la communauté et trois maîtres du jeu aux prises de décisions et à l’évolution de la ville.

Dès le départ, vous êtes aux commandes. La plateforme vous permet de vous faire votre propre idée grâce à un volet documentaire rigoureux et détaillé, aux témoignages, aux données, aux entrevues, aux séquences, ainsi qu’à la carte réelle des exploitations pétrolières à Fort McMurray.

Vous maitrisez ensuite le développement économique, politique, environnemental et social de la ville. Vos choix conditionnent le récit. Chaque expérience sera unique.

Une participation collective

Les actions de la communauté agissent sur le déroulement du jeu. En cours de route, le maître du jeu diffuse de l’information pertinente en fonction de l’évolution de la partie en cours.

Chaque joueur ou joueuse doit trouver des indices et des lieux, répondre à des sondages et participer à des missions collectives avec d’autres joueurs (p. ex., organiser des manifestations ou des forums). Pour chaque action, chaque rencontre, chaque découverte, chaque mission, vous remportez des «points d’influence». Plus vous accumulez de points, plus vos arguments et vos votes auront de poids dans l’orientation du projet.

Chaque semaine, un référendum

Au terme de chaque semaine, un référendum collectif influera sur la suite du jeu. Vous aurez la possibilité de faire valoir votre vision et de convaincre les autres joueurs. Quelle sera votre position? Allez-vous prioriser l’économie? Favoriser l’héritage écologique des générations à venir? Tout n’est pas noir, tout n’est pas blanc. Les solutions ne sont pas évidentes et la nuance est la clé pour comprendre les enjeux de l’exploitation pétrolière.

Des conséquences virtuelles

Chaque action a une influence sur votre expérience et sur celle des autres utilisateurs.

Les résultats des sondages quotidiens et des référendums hebdomadaires influent sur la ville qui aura été modelée par les idées des uns et les convictions des autres. Chaque décision à prendre est prétexte à un débat entre les membres de la communauté. Au bout du jeu, chaque joueur ou joueuse sera prêt à porter un regard global sur l’exploitation des sables bitumineux à Fort McMurray et comprendra à quel point la situation a un impact universel.

Conçu pour le Web et la tablette numérique iPad, cette expérience sociale, réellement collective, s’adresse autant aux internautes passifs et spectateurs qu’aux joueurs plus expérimentés. Fort McMoney est définitivement un projet qui pousse plus loin toutes les limites atteintes dans l’univers des documentaires interactifs.

Prenez le contrôle de Fort McMurray, faites triompher votre vision du monde !
Prenez le contrôle de Fort McMurray, faites triompher votre vision du monde !

Pensée du Jour

$
0
0
Pensée du Jour

Pensée du Jour

« Personne n'est seul, en ce sens que nul vivant n'existe qui ne soit distrait de lui-même, et c'est tant mieux. Il faut aimer ceux qui nous distraient de nous. »

Maurice Genevoix 1890 - 1980

4° édition du concours CLER Obscur : 4 lauréats…

$
0
0
4° édition du concours CLER Obscur : 4 lauréats…

4° édition du concours CLER Obscur : 4 lauréats…

La 4ème édition du concours CLER-Obscur a recueilli plus de 2 650 votes. L'objectif de cet événement : valoriser au format vidéo les thématiques liées aux énergies renouvelables, à la mobilité durable et à la transition énergétique. 4 courts-métrages ont été récompensés. La remise des prix se déroulera sur le plateau TV du salon Pollutec Horizons à Paris Nord Villepinte, le 5 décembre 2013, à 16h. Venez y assister !

Pour cette 4ème édition, organisé par le CLER en partenariat avec l’ADEME, 27 courts-métrages ont concouru.

4 films ont été primés comme suit :

- 1er prix des internautes (1 000 €) : La maîtrise de l'énergie (Nicolas Dégenétais) ;

La maîtrise de l'énergie (Nicolas Dégenétais) ;

- 2ème prix des internautes (750 €) : On ne badine pas avec l'aérosol (Fanny Mazoyer, Alexie Heimburger, Gaultier Durhin);

On ne badine pas avec l'aérosol (Fanny Mazoyer, Alexie Heimburger, Gaultier Durhin);

- 3ème prix des internautes (500 €) : Cinq choses anodines qui peuvent changer le monde (Timothée Fallet);

Cinq choses anodines qui peuvent changer le monde (Timothée Fallet);

- Prix spécial du jury (1000 €) : Combrailles durable (Fabien Gatinois pour la Coopérative citoyenne Combrailles Durable)

Combrailles durable (Fabien Gatinois pour la Coopérative citoyenne Combrailles Durable)

Identifier les non-qualités qui impactent les performances d’un bâtiment

$
0
0
Identifier les non-qualités qui impactent les performances d’un bâtiment

Identifier les non-qualités qui impactent les performances d’un bâtiment

Tel est l’objectif de l’étude lancée par l'AQC intitulée ‘’REX Bâtiments performants & Risques’’

Après avoir présenté la deuxième phase de l'étude en Août 2012, la troisième trame donc les évolutions rapides qui ont eu lieu dans le secteur de la construction et qui ont bouleversé les pratiques (BBC, RT 2012, etc.) Cette étude s’est focalisé sur les pathologies émergentes, en lien avec la mise en œuvre de produits et procédés innovants, dans le cadre d'une recherche de performance énergétique ou environnementale.

Son but est d'identifier les non-qualités qui impactent les performances prévues et empêchent d'atteindre les objectifs modélisés initialement (consommation, confort, qualité sanitaire, etc.) Elle vise aussi à développer l'apprentissage par l'erreur, afin que la filière construction bâtisse, à partir des retours d'expériences, une stratégie délibérément orientée vers la promotion de l'amélioration de la qualité.

L'étude REX Bâtiments performants & Risques s’est portée sur 311 opérations représentatives de l'ensemble des typologies de bâtiments à basse consommation et/ou à haute qualité environnementale (tertiaire, collectif, maison individuelle). Ces bâtiments sont implantés aussi bien en zones rurales qu'urbaines. Cet échantillon comprend pour 38% des opérations de rénovation et couvre globalement les huit zones géographiques concernées par la RT 2012.

Un rapport compile tous les résultats de cette enquête.

Certes l'amélioration de la performance énergétique et de la qualité environnementale des bâtiments ont accéléré les processus de constructions de plus en plus élaborées, mais dont le fonctionnement et les équilibres sont plus sensibles que par le passé.

Dans ce contexte de transition, le recours à des produits et procédés nouveaux se généralise. Les exigences aussi se renforcent et les acteurs de la construction sont confrontés à des obligations de résultats. Ceci implique une montée en compétences, qui se fait par l'expérimentation, étape naturellement génératrice d'erreurs, de désordres...

Les travaux de l'Agence qualité construction sont fondés sur le retour d'expériences. En 2010, l'AQC a décidé de compléter ses outils historiques de connaissance de la pathologie (Sycodés et Alerte, alimentés par les experts construction) par le lancement d'une étude spécifiquement dédiée aux bâtiments performants.

L'apprentissage par l'erreur et le partage des expériences sont au cœur de ce travail. Le but de l'étude REX Bâtiments performants & Risques est de faire connaître les erreurs qui ont pu être commises par les acteurs précurseurs de la construction durable afin qu'elles ne soient pas renouvelées à l'avenir. Cette action n'a pas pour vocation de stigmatiser la construction des bâtiments performants ; elle vise au contraire, à en améliorer la qualité.

Basée sur une enquête de terrain, l'étude REX Bâtiments performants & Risques a pour objet d'identifier les non qualités qui ont un impact sur la performance énergétique ou la qualité environnementale des bâtiments. Les désordres liés à l'utilisation de produits ou de procédés innovants sont également recherchés. La collecte de ces observations se fait in situ, lors de la visite de bâtiments performants et par la rencontre des acteurs ayant participé à leur conception, à leur construction ou à leur utilisation. Dans l'objectif de fournir des leviers d'amélioration de la qualité, les bonnes pratiques mises en œuvre dans ces projets exemplaires sont également capitalisées.

L'échantillon d'opérations visitées contient 62% d'opérations neuves et 38% d'opérations rénovées. La rénovation étant le principal enjeu des années à venir, un effort particulier a été fait pour identifier des projets en rénovation malgré leur nombre moins important.

Les bâtiments visités sont répartis équitablement selon les types d'usages suivants :

• 1 tiers de maisons individuelles ;

• 1 tiers de logements collectifs ;

• 1 tiers de bâtiments tertiaires (bureau, commerce, hôtel, bâtiment de santé, bâtiment culturel, enseignement, etc.).

La plus petite opération visitée présente 97 m2 de SHON ; la plus grande présente une SHON de 80 700 m2 (CERTIVEA).

D'un point de vue énergétique, 54 % des opérations visitées ne sont pas labellisées mais ont un niveau de performance énergétique élevé (A minima BBC d'un point de vue de leur étude thermique). 35 % des opérations visitées sont labellisées BBC Effinergie. Le reste de l'échantillon correspond à des bâtiments labellisés Minergie ou Passivhaus.

D'un point de vue environnemental, 1/3 des opérations visitées sont certifiées (HQE, LEED, BREEAM, etc.).

A titre d'exemple, les bâtiments qui ont recours à l'isolation thermique par l'extérieur (ITE) représentent 53 % du total des opérations visitées (tous types d'usage confondus). Cependant, ce chiffre doit être utilisé avec du recul du fait de la taille réduite de l'échantillon. De plus, la surreprésentation des opérations mettant en œuvre une ITE peut s'expliquer par le fait que certains projets subventionnés avaient l'obligation d'y avoir recours (opérations démonstratrices).

Les isolants bio-sourcés (principalement la fibre de bois et la ouate de cellulose) ont été utilisés dans 20% des opérations.

De la même façon, les statistiques montrent que l'utilisation d'une ventilation double flux est notable dans l'échantillon puisque 38% des bâtiments en sont équipés. Cette fois encore ce chiffre doit être analysé avant d'être exploité. On observe par exemple que des disparités énormes existent suivant le type d'usage (quasiment la totalité des bâtiments tertiaires sont équipés d'une VMC DF, alors que les bâtiments collectifs sont majoritairement équipés de ventilation Hygro B).

Des panneaux photovoltaïques ont été installés dans 13 % des opérations. Le triple vitrage a été utilisé dans 10% des cas.

Enfin, plus d'un quart des projets sont à ossature bois et 13% des opérations disposent d'une toiture végétalisée.

Dans le détail, les résultats de l’enquête sur l’enveloppe montre qu’au niveau de l’étanchéité à l’air, d’une façon générale, il a pu être observé que la réalisation d'une bonne étanchéité à l'air a un impact positif sur la qualité finale du bâtiment. Les finitions sont mieux réalisées et le soin porté aux détails accru. Cependant, dans la quasi-totalité des projets, l'étanchéité à l'air est réalisée en utilisant ponctuellement ou massivement des matériaux non adaptés (mousse polyuréthane, joint à base de silicone, ruban adhésif non adapté...). Les résultats au moment du test de la porte soufflante sont bons, mais quelle sera la durabilité de la performance dans le temps ?

La majorité des problèmes recensés se situe au niveau des interfaces :

• entre les produits ;

• entre les corps d'état.

Outre les problèmes liés à la conception et à l'exécution, les produits et les équipements présentent des défauts d'étanchéité à l'air intrinsèques qu'il faut prendre en compte dans la définition des projets.

Pour remédier aux différents constats, de nombreuses solutions existent et permettent de bien réaliser l'étanchéité à l'air des bâtiments. A titre d'exemples, les travaux apportent un grand nombre de réponses aux problèmes liés à la réalisation de l'étanchéité à l'air :

• les carnets de détails du projet « MININFIL » (CETE de Lyon) qui présentent cependant des incohérences avec les DTU en cours d'identification dans le cadre du programme « Règles de l'Art Grenelle Environnement 2012 » ;

• le film « Etanchéité à l'air des bâtiments » (5 parties). Ce film a été édité par les Régions Alsace, Bourgogne, Franche-Comté et Pays de Loire et les directions de l'ADEME de ces régions.

Par ailleurs, l'amélioration de l'isolation thermique des enveloppes a pour conséquence d'accroître la perception des nuisances sonores à l'intérieur des logements (bruits des équipements...) et entre logements (problèmes de voisinage). L'aspect acoustique doit donc être une préoccupation forte en conception et notamment dans le choix des équipements et de leur positionnement au sein du logement.

Les ponts thermiques ont été répertoriés dans différents types de construction, bois, maçonnerie, notamment en pied de mur, ou au pourtour du nez de dalle. De plus dans le cas d’une conception de balcons solidaires des planchers intermédiaires, cela nécessite le recours à des rupteurs de ponts thermiques. Des infiltrations d'eau, par l'extérieur, au droit des joints des balcons ont été identifiées. Ce constat est aggravé pour les balcons du dernier niveau, non couverts. A l’origine un défaut de conception ou de mise en œuvre difficile. Conséquence un défaut d'étanchéité à l'eau.

S’agissant des ouvertures, là aussi différentes erreurs ont été répertoriées. Le verre central des fenêtres triple vitrage a cassé par choc thermique. L’origine de cet impact est lié aux caractéristiques du produit. L’étude révèle aussi que certains montages des vitrages à faible émissivité ont été exécutés à l'envers.

Ensuite, l’étude mentionne que l'inconfort thermique lié aux surchauffes n'a pas été forcément pris en compte dans les certains cas. Des brise-soleil mal installés, fragiles, rendant une mauvaise qualité d’usage. Ou bien ces protections solaires ont été oubliées lors de la conception, ou il n’a pas été envisagé d’en installer. Résultats un inconfort thermique récurrent en été.

Dans des bâtiments équipés de planchers chauffants, des surchauffes ont été observées en intersaison. Ces surchauffes ponctuelles sont dues au cumul des calories liées aux apports solaire avec celles liées au chauffage. La forte inertie des planchers chauffants est la cause principale de ce problème. En effet, la régulation de ce type d'installation est difficile et l'inertie oblige à une anticipation très à l'avance des apports solaires prévus afin d'éviter les cumuls.

Les besoins de chauffage sont différents suivant les orientations du bâtiment. En intersaison, des surchauffes sont observées dans les logements situés sur les façades les plus ensoleillées alors que sur les façades « nord » il y a encore un besoin de chauffage.

Dans certains cas, le positionnement du caisson de la VMC DF dans les combles non isolés ou à l'extérieur du bâtiment. Le système (moteur, échangeur et gaines), peu ou pas isolé, se retrouve dans une atmosphère très chaude l'été (particulièrement dans les combles non isolés). Ceci limite la participation de la VMC DF au maintien de la fraicheur dans le logement

L’étude a pu ainsi mettre à jour certaines pratiques non préconisées entrainant une perte des performances de l’enveloppe, comme le remplacement de menuiseries par d’autres beaucoup moins performantes. De la même manière qu’un isolant préconisé en conception a été remplacé par un autre isolant moins performant, dont les caractéristiques ne correspondent plus à celles modélisées dans l'étude thermique.

L’étude a aussi soulevé d’autres problématiques. Des problèmes de condensation en phase chantier ont été observés lors de l'enquête. La forte étanchéité à l'air des bâtiments explique en grande partie ce phénomène, mais d'autres facteurs entrent également en jeu comme :

• l'impossibilité d'ouvrir les fenêtres par peur des vols et en cas d'absence prolongée ;

• la saison humide et froide et la situation géographique de l'opération ;

• l'absence des équipements assurant la ventilation et le chauffage ;

• l'impossibilité de brancher la ventilation en place (garantie qui commence à la réception / risque d'encrassement / problème d'alimentation électrique et raccordement EDF) ;

• la mise en œuvre très rapide de l'ITE, ne permettant pas au mur de sécher par l'extérieur

• la mise hors d'eau et hors d'air très rapide (ossature bois) qui n'a pas permis aux murs de refend et aux dalles béton de sécher...

Ce désordre n'est pas nouveau mais il survient plus fréquemment dans les bâtiments à basse consommation. En outre, ses conséquences sont plus graves.

Concernant les équipements, l'enquête révèle que l'absence de locaux techniques adaptés et correctement dimensionnés explique bon nombre des problèmes de maintenance, des problèmes acoustiques et des problèmes de fonctionnement des équipements.

Le constat général est lié au surdimensionnement des équipements de chauffage ayant pour conséquences des courts cycles et une dégradation des rendements (en plus d'un encrassement et d'un vieillissement prématuré). Un impact irrémédiable sur une surconsommation.

Notamment lorsque la température de la pièce met beaucoup de temps à remonter après aération dans des logements chauffés par des radiateurs à basse température (40 °C). L’origine pouvant être multiple : puissance des émetteurs, régulation en fonction de la température extérieure / comportement des usagers.

S’agissant des équipements solaires, les divers constats de l’étude montrent que ces panneaux solaires thermiques ou photovoltaïques sont ombragés tout ou partie de la journée et/ou mal positionnés sur le bâtiment. Les masques solaires n'ont pas été pris en compte lors de l'étude thermique (végétation, autres bâtiments, cheminées, pans de toit...). A l’origine une méconnaissance ou une négligence de la part des concepteurs.

De plus, l'orientation et/ou, dans une moindre mesure, l'inclinaison des panneaux solaires thermiques ou photovoltaïque n'est pas optimale.

De plus, l’enquête montre que les systèmes solaires thermiques sont dépendants de l'électricité et doivent être maintenus sous tension même pendant les périodes d'absence sous peine de stagnation et de surchauffe. Il y a donc consommation d'énergie même pendant les périodes d'inutilisation, entrainant une consommation inutile.

Concernant la VMC double flux, les constats montrent que Ce n'est pas systématiquement stipulé dans les constats suivants, cependant, tous les défauts de maintenance et d'entretien des VMC DF ont un impact sur l'efficacité de ce type d'équipements. En cas de risque de défaut de maintenance, il y a donc forcément un risque de perte de performance associé.

Plusieurs aléas ont révélé que l'échangeur s'est rempli d'eau dans la période qui a suivi la mise en route de la VMC DF, à l’origine une mauvaise mise en œuvre. Ou des VMC DF montées à l'envers. Les gaines d'insufflation et les gaines d'extraction ont été interverties à leur départ du caisson. L'air est soufflé dans les pièces humides et extrait dans les pièces à vivre.

La VMC DF est difficilement accessible car placée dans les combles ou dans le plafond suspendu. Il est nécessaire d'utiliser une échelle pour y accéder (parfois plusieurs mètres de hauteur) Origine : conception.

L’enquête précise aussi les aléas sur le suivi et la maintenance de certains bâtiments. Certains bâtiments sont très performants, car bien conçus et bien réalisés. Il manque cependant un intervenant responsable de leur pilotage. Au-delà des pertes énergétiques liées à la mauvaise optimisation de ces constructions, il arrive que l'absence de pilotage entraîne des sinistres. Les coûts et la complexité des opérations d'entretien et de maintenance croissent avec l'augmentation du nombre de systèmes installés sur les bâtiments. Dans les opérations très « équipées », le discours vendeur sur les économies d'énergie doit être modéré au risque de voir des utilisateurs mécontents. En effet, une partie des économies réalisées sur les consommations d'énergie sert à payer la maintenance plus complexe et plus coûteuse.

Enfin, d’une manière générale, l'étude révèle que dans certains bâtiments, le niveau « basse consommation » a été atteint grâce à la mise en place d'équipements performants et non par une conception bioclimatique élaborée.

De nombreux cas concrets ont permis de constater des défauts. La conception bioclimatique a été négligée du fait des exigences du maître d'ouvrage. La vue (sur la mer, sur un sommet...) a été privilégiée à la recherche de performance et le bâtiment n'est pas orienté de façon optimale. L'étude thermique a été faite en utilisant des surfaces plus grandes que celles déclarées sur le permis de construire. Cette distorsion fausse les calculs et notamment celui de la Consommation en Energie Primaire (CEP) du bâtiment.

L'analyse de l'étude thermique révèle une surévaluation du taux de couverture des besoins en ECS par les panneaux solaire thermique (les BE ont considérés que 80% des besoins en ECS seraient couverts par l'énergie solaire). Or, dans certains cas, les panneaux solaires sont orientés Est ou

Ouest avec des pentes très inférieures à celles requises pour la latitude géographique ou ils ont été installés.

Le plan de relevé du site présentait une erreur de plus de 90° degré par rapport au Nord géographique. L'ensemble des études thermiques a donc été établi suivant une fausse orientation. Cette erreur n'est apparue qu'au stade de l'APD. Seule une partie des plans ont pu être repris sans modification du sens des faîtages

Les séjours sont situés derrière les garages placés au sud. Ces derniers interdisent l'accès à la lumière naturelle et ne permettent pas de bénéficier des apports solaires l'hiver. Les garages n'apparaissent pas dans l'étude RT2005. Les conclusions de cette dernière sont donc optimistes.

Le découpage des parcelles n'a pas permis aux concepteurs d'exploiter correctement les apports solaires et d'intégrer au mieux le bâtiment dans son environnement (vents dominants, effet de masques...).

Les paramètres des cahiers des charges (alignement des façades, alignement des faîtages, adossement ou accolement à d'autres bâtiments, création de places de parking...) sur les parcelles de petites tailles (<400m2) ont été trop contraignants pour permettre une conception bioclimatique de qualité.

Enfin, le passage dans le sas thermique, situé à l'entrée du bâtiment, nécessite une courte attente, du fait que les portes de devant ne s'ouvrent que quand celles de derrières se sont refermées. Pour éviter d'attendre, les employés utilisent la porte de sécurité, située à côté du sas, et la maintiennent ouverte à longueur de journée. Ceci provoque de grosses déperditions en hiver et de forts apports de chaleur en été.

Malgré le grand nombre de désordres déjà identifiés, certaines techniques constructives, certains produits et certains procédés innovants n'ont pas encore fait l'objet de retours d'expériences. Dans ses conclusions, l’enquête rajoute que les bâtiments visités étant très récents, il n'est pas possible dès aujourd'hui d'anticiper tous les potentiels futurs désordres.

Avec l'application de la Réglementation Thermique 2012, ce sont tous les acteurs de la construction qui vont être concernés par la recherche de performances. Il y a donc un enjeu fort à poursuivre et partager les retours d'expériences qui sont une réponse pour garantir les performances et la qualité souhaitées dans les bâtiments d'avenir.


Les non-qualités dans la construction, 9e édition du Concours photo de l’AQC

$
0
0
Les non-qualités dans la construction, 9e édition du Concours photo de l’AQC

Les non-qualités dans la construction, 9e édition du Concours photo de l’AQC

La 8ème édition avait réservé quelques originalités… Observer, savoir identifier et analyser un phénomène permet d’améliorer la connaissance, et c’est essentiel pour progresser. L’une de ses missions fondatrices étant précisément de tirer les leçons des erreurs passées, l’AQC organise depuis 2006 un concours photo qui s’appuie sur ce principe.

Le lancement de la 9e édition du concours photo témoigne du succès de cette initiative et de l’implication des acteurs de la construction, professionnels ou non. Comme pour les précédentes éditions, il est attendu des photos commentées de désordres dans le bâtiment.

L’Agence Qualité Construction, association Loi de 1901, dont la mission est de prévenir les désordres dans le bâtiment et d’améliorer la qualité de la construction, développe de nombreuses démarches pédagogiques pour impliquer et mobiliser les acteurs de la construction dans la prévention des pathologies dans le bâtiment.

Le 9e Concours Photo AQC « Les désordres dans le bâtiment, la preuve par l’image ! », comme les huit précédents, valorisera d’une part la pertinence technique des photos, qui devront être représentatives d’un désordre dont l’origine est identifiée, et d’autre part la qualité technique et artistique de la photo.

Ouvert à tous les photographes amateurs, qu’ils soient ou non des professionnels du bâtiment, ce concours gratuit est organisé du 4 novembre 2013 au 12 avril 2014.

Les désordres repérés peuvent relever ou non de l’assurance Dommages-Ouvrage, être exceptionnels ou non, concerner des constructions quel qu’en soit leur usage : habitat (individuel, collectif), industriel, agricole, administratif ...

Le jury chargé de désigner les lauréats sera composé du président de l’AQC, du directeur général de l’AQC, de la rédactrice en chef de la revue Qualité Construction, d’un photographe professionnel, d’un expert construction, du responsable du « Concours Photo AQC », d’un précédent lauréat.

Les critères de jugement seront la compréhension du désordre représenté, les qualités techniques et artistiques de la photo.

Les concurrents peuvent envoyer plusieurs dossiers, comprenant une photo numérique (haute résolution) prise sur le territoire français, accompagnée obligatoirement d’une description claire et détaillée sur la nature du désordre photographié et d’une présentation du lieu de la prise de vue.

Le règlement daté et signé devra être ajouté à l’envoi (celui-ci est téléchargeable sur le site de l’Agence Qualité Construction www.qualiteconstruction.com).

Le jury, souverain dans l’attribution des prix, décernera deux prix : un premier prix d’une valeur de 1 000 € TTC, un deuxième prix d’une valeur de 500 € TTC.

Les gagnants seront avertis individuellement et leur prix leur sera adressé par courrier. Tous les candidats ayant participé à ce concours recevront deux numéros de la revue Qualité Construction, ou verront leur abonnement prolongé.

En cohérence avec l’objectif pédagogique de ce concours, une exposition des photos primées ou sélectionnées se déroulera lors du 16e Rendez-vous Qualité Construction, le 5 juin 2014.

Le solaire thermique méprisé par les méthodes de calcul de la RT 2012…

$
0
0
Le solaire thermique méprisé par les méthodes de calcul de la RT 2012…

Le solaire thermique méprisé par les méthodes de calcul de la RT 2012…

Dans une note d’alerte et de recommandations pour la saisie des équipements au sein du moteur de calcul RT 2012, un groupe de travail interne à Enerplan, regroupant 3 experts (un bureau d'étude solaire : TECSOL, un bureau d'étude thermique et énergie du bâtiment: CARDONNEL Ingénierie et un fabricant : EKLOR) a étudié la valorisation des solutions solaires thermiques au sein du moteur de calcul de la Réglementation Thermique 2012, plus particulièrement pour la production d'eau chaude sanitaire en collectif.

Cette note retranscrit de façon synthétique les premières conclusions des travaux réalisés et préfigure la prochaine parution (1er semestre 2014) d'un « Guide d'usage des solutions solaires thermiques au sein du moteur de calcul RT 2012 », réalisé par Enerplan et Uniclima, dans le cadre de l'initiative SOCOL.

Les logiciels de calcul de la RT 2012 utilisés « sans précaution » valorisent très mal le solaire thermique, avec une décote variant de 30 à 50% sur certaines simulations en solaire collectif, par rapport à une utilisation optimisée. Les conseils suivants permettent de paramétrer au plus juste les configurations simulées.

1. CAPTEURS

NE JAMAIS UTILISER les valeurs de rendement par défaut du logiciel ; utiliser les coefficients techniques du fabricant. A défaut, et tant que le choix du fabricant n'est pas fait, il est conseillé d'utiliser la moyenne des capteurs plans actuels avec les valeurs suivantes :

η0 = 0,78

a1 = 3,76

a2 = 0,015

ou encore : B = 0,79 K = 4,8

2. REGULATION

Cocher systématiquement « régulation sur ensoleillement » (lorsque cette option est disponible). En effet la régulation « sur température » sous-estime systématiquement le temps de fonctionnement du solaire, impactant de façon négative les résultats en termes de productivité solaire.

3. PERTES THERMIQUES LIEES AU CIRCUIT PRIMAIRE SOLAIRE Prendre en référence une isolation de classe 2 à minima (coefficient linéique de 0,3 W/(mK)) et la faire respecter dans la section du cahier des charges portant sur les caractéristiques techniques de l'isolation de la tuyauterie du circuit primaire.

4. REMARQUES GENERALES Le calcul réglementaire RT n’EST PAS un calcul de dimensionnement d’installation. Pour un dimensionnement correct et cohérent d'une installation solaire thermique, il faut se reporter à des outils spécialisés : la méthode SOLO, SIM SOL,

TRAnsol, T*sol, ou Polysun, en utilisant des données météorologiques adaptées, et en validant au cas par cas les besoins ECS. En l'absence de référence en termes de besoins d'ECS, prendre un ratio de base de 30 litres par personne et par jour à 60°C. Pour plus d'informations sur les logiciels de calculs et la bibliothèque de schémas de principe : site Internet SOCOL : www.solaire-collectif.fr

Le volume de stockage solaire est lié à la surface de capteurs pour une zone climatique donnée, et pas seulement directement à la consommation journalière. Le lien avec celle-ci n’existe qu’au travers de l’objectif de couverture que l’on s’est fixé. Ne pas déterminer les volumes de stockage au hasard, et partir du repère de 50 litres de stockage par m2 de capteurs.

5. RAPPEL DE QUELQUES NOTIONS DE BASE SUR LA PRODUCTION D'ECS SOLAIRE CENTRALISEE Soient les besoins totaux de chauffage et ECS = B1+B2

B1= Besoin en énergie au point de puisage (consommation en litres/jour et température ECS à 40°C) + B2 = Besoin en énergie lié aux pertes de distribution (qualité des robinets, distribution individuelle non bouclée, bouclage) de cette ECS vers les points de puisage.

Les schémas CESCI (pris en compte partiellement dans la RT 2012 - par exemple pas pour la configuration avec appoint gaz séparé) ont notamment pour avantage de diminuer ou de supprimer le besoin B2 lié à la distribution en amenant l'énergie solaire directement jusque dans les logements, sans bouclage sanitaire.

Ce besoin est couvert par : ESU et EA

ESU= Energie Solaire Utile (en sortie ballon solaire) ESU représente l’apport d’énergie des capteurs solaires moins les pertes de l'installation solaire (pertes de la boucle solaire primaire, pertes d’échange vers le ballon et pertes thermiques au sein du ballon de stockage solaire). A voir également la consommation électrique du circulateur solaire primaire normalement intégré dans les consommations des auxiliaires.

EA = Energie d’Appoint (appoint impérativement séparé du ballon solaire dans ce cas là, et systématiquement conseillé dans le collectif) EA intègre les différentes pertes du système d’échange et thermique du ballon de stockage d’appoint, les pertes d’efficacité ou rendement de la génération d’appoint.

L'apport énergétique solaire utile se mesure à la sortie du ballon solaire. Cette énergie utile ne doit pas prendre en charge directement les pertes thermiques de distribution vers les points de puisage.

=> L’apport solaire est donc ESU en kWh , et non pas : (ESU–B2)

=> Le taux de couverture solaire a été défini selon la norme ISO 9488, soit par ESU/B1,

=> Le taux d’économie est mesuré par le rapport ESU/ (B1+B2) ou ESU/ (ESU+EA)

Des erreurs d'appréciation sont trop souvent constatées :

Cas n°1 : sous-estimation de l’apport solaire en imputant directement la part des déperditions à la seule énergie solaire.

Cas 2 : surestimation de l’apport solaire en laissant supposer que le taux de couverture solaire est un taux d’économie.

Seule l’énergie solaire utile sortie ballon solaire (ESU) est pertinente et reflète de réels kWh économisés grâce à l'énergie solaire.

Le Pentagone se pare d’un voile photovoltaïque

$
0
0
Le Pentagone se pare d’un voile photovoltaïque

Le Pentagone se pare d’un voile photovoltaïque

Dans le Grand chantier du futur Pentagone français, le mois d’octobre aura vu la pose du premier panneau photovoltaïque.

Véritable projet visant une certification Haute Qualité Environnementale® et un label Bâtiment Basse Consommation®, la démarche HQE® sur le projet Balard a été initiée très tôt par le Ministère de la Défense, dès l’établissement du programme de l’opération. Après la signature du Contrat de Partenariat, c’est OPALE Défense qui a repris le pilotage de cette démarche, dans la continuité de celle engagée par le Ministère.

Le processus de certification consiste en la réalisation de plusieurs audits par un organisme indépendant, afin de contrôler la bonne prise en compte des mesures environnementales dans chacune des phases clés du projet :

Programme, réalisé avec le Ministère en 2009 ;

Conception, réalisé avec OPALE DEFENSE en février 2012 ;

Réalisation, fin 2014 ;

Exploitation.

Dès le lancement du projet, certaines orientations fortes ont été retenues par le ministère de la défense, en particulier le renoncement à la climatisation des bureaux, contrairement aux usages pour les bâtiments neufs de bureau construits en région parisienne ces dernières années. De même, le ministère a délibérément retenu le principe d’une limitation des parkings pour les voitures.

En vue d’atteindre les objectifs forts de la certification HQE®, les bâtiments du Ministère ont été conçus pour minimiser leurs besoins énergétiques et fonctionner comme un écosystème quasiment autonome à très haute performance environnementale. Extraction naturelle de l’air, recyclage de l’eau, hyper-contextualisation des façades, inertie thermique, récupération et réemploi des calories, production photovoltaïque, géothermie sont les principes mis en œuvre qui permettent d’atteindre des performances exemplaires.

© Opale Défense

© Opale Défense

En 5 points les éléments mis en place sur le projet pour répondre aux exigences HQE® :

Eau :

90% des besoins d’eau pour l’arrosage des espaces verts seront couverts par la récupération des eaux pluviales,

50 % des consommations en eau potable seront économisés par rapport à un bâtiment classique grâce à des équipements hydro-économe (robinet des lavabos, robinet des douches, commandes WC et urinoirs.).

Energie :

4 puits géothermiques couvriront la quasi-totalité des besoins en rafraichissement, soit par échange direct dans des plafonds rayonnants, soit par le biais de deux thermo-frigo-pompes à haut rendement.

Ces thermo-frigo-pompes permettront également de récupérer les calories non valorisées habituellement, notamment celles des salles informatiques et ainsi de couvrir environ 70% des besoins de chauffage. L’eau chaude sanitaire sera intégralement produite par récupération de ces calories.

La surtoiture du projet a été conçue pour accueillir la plus grande toiture photovoltaïque de Paris. Des panneaux solaires seront implantés pour permettre de produire l’équivalent de 10kWhEP/m2/an, cette production sera auto consommée sur le site par réinjection sur le réseau HT.

Une gestion centralisée des bâtiments permettra d’adapter en temps réel l’utilisation des équipements (éclairage, stores, ventilations...) aux conditions d’occupation. Par exemple, l’éclairage sera asservi à un détecteur de présence et sera régulé par variateur en fonction de la luminosité extérieure, dans le but d’atteindre le confort optimal tout en étant le moins énergivore possible.

Ainsi, le bâtiment pourra réaliser une réduction globale des consommations en énergie de plus de 50% par rapport à un bâtiment de référence. Au total, 80% des besoins en chauffage, rafraîchissement, eau chaude (restauration comprise), seront couverts directement ou indirectement par des energies renouvelables.

Déchets :

Dans une démarche de développement, le tri sera effectué sur l’ensemble du site. Les filières de traitement de chaque déchet sont déjà déterminées : le taux de recyclage de l’ensemble des futurs déchets est ainsi maîtrisé. Les déchets organiques (issus de la restauration) et verts seront envoyés dans un centre de traitement pour en faire du compost.

Confort :

A l’intérieur des bâtiments du nouveau ministère, les matériaux de revêtement tels que les moquettes ou encore les peintures, mais aussi les mobiliers de bureaux, seront éco-labélisés. Les écolabels permettent de garantir une faible émission de polluants tout au long du cycle de vie d’un équipement.

De plus, pour le confort de tous les utilisateurs du Ministère, des stores extérieurs seront mis en place dans les zones de bureaux. Ceux-ci seront motorisés et automatiques en fonction de l’intensité du soleil. Les occupants pourront également contrôler ces stores pour un meilleur confort.

Le bâtiment bénéficie également d’une qualité sanitaire de l’air performante : le renouvellement de l’air des locaux est adapté en fonction de l’occupation et les locaux sensibles tels que les vestiaires, les sanitaires, les locaux à déchets ou les cuisines sont traités spécifiquement.

Environ 14ha d’espaces plantés ont été aménagés et rendus accessibles aux occupants. Ces espaces regroupent plus de 80 espèces végétales différentes offrant une biodiversité inédite en plein cœur de Paris.

Chantier :

Sur le chantier, les équipes seront engagées à trier les déchets dans le but de les valoriser. Il convient au minimum de ne pas mélanger les catégories de déchets suivantes :

Les Déchets Inertes (DI) (exemples : les parpaings, les bétons, les carrelages et céramiques, etc.) : ils seront recyclés en grande majorité pour les comblements de carrières ou le fond de forme des voiries. Les Déchets métalliques : recyclés à 100%, ils seront fondus puis réutilisés.

Les Déchets de bois, cartons et papiers : ils seront recyclés ou brulés pour produire de l’ énergie Les Déchets Industriels Banals (DIB), assimilables aux déchets ménagers, hors bois, cartons, papiers et métaux (exemples : les plastiques, les plâtres, les déchets organiques, etc.) : ils seront triés dans un centre adapté afin de recycler le maximum de déchets, puis seront brulés ou mis en décharge.

Les Déchets Dangereux (DD), contenant une substance dangereuse pour l’homme ou pour l’environnement (exemples : peintures, huiles usagées, cartouches de silicone, etc.) : ils seront évacués vers des centres spécialisés afin d’être recyclés, brulés pour produire de l’énergie ou bien détruits.

Ainsi le taux de valorisation des déchets sera de 70% y compris la valorisation énergétique et le recyclage matière. Egalement des gestes quotidiens permettront des économies d’eau grâce par exemple à la réutilisation des eaux de lavages des bennes à béton. Ces eaux seront ainsi utilisées en circuit fermé.

© Opale Défense

© Opale Défense

Sur le chantier donc, en octobre dernier, le premier panneau photovoltaïque a été posé par l’entreprise titulaire du marché ISSOL. Dès sa création en 2005, la société belge Issol s’est spécialisée dans le photovoltaïque sur mesure intégré au bâtiment. Une niche de la niche qui lui a permis de développer un savoir-faire pluriel et unique sur le marché. Suffisamment en tous les cas pour remporter le marché du Pentagone à la Française de Balard, un projet architectural à la technique complexe et à l’esthétisme rare. Détails de la plus grosse installation photovoltaïque intégrée de Paris avec 820 kWc de puissance !

En 2005, Laurent Quittre, PDG d’Issol, a lancé sa société de fabrication de modules en Belgique à une trentaine de kilomètres de la frontière allemande. Très vite, le chef d’entreprise comprend qu’il n’aura rien à gagner à travailler sur le modèle existant de production de masse de capteurs cadrés dans une logique de rentabilité de court terme. Laurent Quittre s’intéresse lui au monde de la construction et à la fonction architecturale des modules photovoltaïques, loin des capteurs cadrés de 1,60×0,80 m qui pour lui n’ont pas vocation à s’intégrer au bâtiment.

Alors que la quasi-totalité des fabricants européens cèdent à la déprime, Issol (57 salariés) affiche sept années de bilan positif et voit son chiffre d’affaires en légère augmentation cette année à environ 15 millions d’euros. Après livraison de cellules pour l’essentiel encore européennes – l’arrêt de Bosch risque de changer la donne -, Issol fabrique les modules dans ses ateliers de Dison (Liège). « Nous découpons le verre, encapsulons la cellule dans le verre, connectons les boîtes de jonction. Nous pouvons être très réactifs. Nous travaillons également beaucoup sur les aspects normatifs et notamment la sécurité. Nous répondons aux exigences des métiers de la construction » assure Laurent Quittre. Cette double casquette qui oscille entre une forte capacité d’adaptabilité et de flexibilité et une expertise en matière normative a permis à Issol de se positionner sur le chantier du Pentagone à la Française de Balard (15ème arrondissement). « Au final, tous les critères du projet pointaient vers nous. Et puis je crois aussi que nous avons su séduire les architectes avant de séduire Bouygues. Cela a été notre grande force » reconnaît le chef d’entreprise belge.

© Opale Défense

© Opale Défense

1 500 tailles différentes de modules pour le Pentagone. En effet le défi architectural et technologique que représente un tel bâtiment est de taille. Les architectes ont, notamment imposé que la technologie photovoltaïque ne soit pas visible avec, qui plus est, un rendu homogène s’apparentant à la couleur grise des toitures en zinc de Paris. « Pour remplir cette contrainte esthétique de rendu en gris zinc, nous avons négocié avec Bosch pendant des mois. Ils ont accepté de changer leur recette pour nous, en supprimant quelques couches d’anti réflecteur ce qui a eu pour effet de diminuer le rendement électrique de 0,5%. Mais dans ces projets, l’intégration prime sur le rendement » confie Laurent Quittre. Architecturalement, ce projet arbore de nombreuses toitures triangulaires. L’installation photovoltaïque de 820 kWc qui s’étend sur 7000 m2; a donc nécessité 1 500 tailles différentes de modules épousant la géométrie de la toiture. Vous avez dit sur mesure ! Sans compter les contraintes normatives démentielles dans un tel lieu : Verre sécurit de 12 mm, classe au feu M0/M1 (BS1d0), sans combustion dans zones à risque ou encore matériau anti éblouissement avec candela inférieur à 10 000 en raison de l’héliport voisin etc. « Il est évident que sur un tel projet notre faculté d’être à l’écoute des architectes, notre expérience dans le développement de solutions sur mesure, notre capacité à répondre aux standards les plus élevés en matière de qualité, de gestion de projet et notre solvabilité financière ont été déterminante. C’est d’ailleurs cette somme d’atouts qui fait que nous récupérons en France de nombreux projets qui souffrent notamment de garanties financières » conclut Laurent Quittre. Fin des travaux du Pentagone à la Française au début du printemps pour Issol. Avant de repartir sur le projet de bâtiment du Conseil de l’Union Européenne à Bruxelles ! Sacré plan de vol pour Issol qui plane sur cette activité du BIPV !

© Opale Défense

© Opale Défense

Qu’en est-il du transfert des particules contaminées dans les rivières de la région de Fukushima ?

$
0
0
Qu’en est-il du  transfert des particules contaminées dans les rivières de la région de Fukushima ?

Qu’en est-il du transfert des particules contaminées dans les rivières de la région de Fukushima ?

Alors que s’opère actuellement les opérations de démantèlement sur le site de la centrale de Fukushima Daiichi, dont la première étape concerne le retrait des combustibles entreposés dans la piscine du réacteur n°4, des chercheurs du Laboratoire des sciences du climat et de l’environnement (LSCE – CEA/CNRS/UVSQ), en collaboration avec une équipe japonaise de l’université de Tsukuba, ont publié les résultats de leurs quatre premières campagnes de mesures menées dans la Préfecture de Fukushima, concernant le transfert des particules contaminées dans les rivières de la région de Fukushima.

Des recherches menées dans le cadre du programme TOFU (TOFU pour Tracing the environmental consequences of the TOhoku earthquake-triggered tsunami and the FUkushima accident.)

Initiée dans le cadre de l’appel « Flash » franco-japonais de l’ANR et de la JST (Japan Science and Technology Agency) à la suite de l’accident de Fukushima, cette étude franco-japonaise fait un point sur le transfert des sédiments contaminés le long des rivières drainant le panache de contamination qui s’est formé dans la Préfecture de Fukushima en mars 2011. Couvrant une zone d’environ 3000 km2, cette étude est la première à réaliser un état des lieux complet, dans le temps et dans l’espace, de l’évolution de la dispersion de ces polluants radioactifs.

Lors de l’accident de Fukushima, des radionucléides émetteurs gamma se sont échappés du combustible nucléaire et ont été relâchés dans l’atmosphère. Ces radioisotopes, principalement du césium-134 et du césium-137 encore traçables aujourd’hui, ont la particularité de se fixer fortement et irréversiblement aux particules du sol et aux sédiments. Sous l’effet de l’érosion, les particules du sol et les radionucléides qu’elles transportent peuvent être transférés dans les rivières puis exportés progressivement vers l’océan Pacifique en traversant des plaines côtières relativement épargnées par les retombées initiales du panache. Des sédiments de rivière ont dès lors été prélevés et leur débit de dose radioactif a été mesuré le long des principales rivières (comme l’Ota, la Mano et la Nitta) qui drainent l'une des parties les plus contaminées du panache de retombées.

Les résultats des quatre premières campagnes de mesures ont permis de confirmer l’hypothèse selon laquelle les typhons contribuent très fortement à redistribuer la contamination sur le territoire. En effet, ces phénomènes accélèrent l’érosion des sols et conduisent à l’évacuation des particules érodées dans les cours d’eau. Ainsi, les chaînes de montagnes intérieures, qui ont connu les plus fortes retombées radioactives, ont été marquées par une forte érosion après la série de violents typhons de l’été 2011. En vingt mois, une baisse des niveaux de radioactivité en altitude et une redistribution progressive de la contamination vers les zones aval ont été constatées. Après les typhons de 2011, une diminution générale des niveaux de contamination a été mesurée en 2012. La campagne de mai 2013 a confirmé cette baisse des niveaux de contamination dans les rivières, plus rapide qu’attendu. Celle-ci peut s’expliquer par l’occurrence de typhons moins violents en 2012 qu’en 2011.

Cette baisse est toutefois plus marquée et plus linéaire dans les zones montagneuses qu’en plaine. Le changement d’occupation des sols dans les zones de culture en altitude a pu contribuer à limiter l’érosion des sols dans la partie amont qui est la plus contaminée. L’interdiction de cultiver ces terres a en effet favorisé le développement d’une végétation plus dense qui protège de facto les sols contre le phénomène d’érosion. La reprise de l’activité rizicole dans les régions situées en altitude pourrait favoriser l’érosion des sols, qui sont actuellement protégés par un couvert végétal dense. Le cas échéant, en cas de reprise de la culture du riz, une surveillance étroite des niveaux de contamination en aval sera nécessaire.

En plaine, la baisse de la contamination est moins régulière et varie en fonction du bassin versant : la présence ou non de barrages joue un rôle considérable dans la mesure où ils constituent des zones de stockage temporaire de la contamination. Ponctuellement, les sédiments contaminés charriés par les cours d’eau se sont accumulés dans les réservoirs des barrages de la région. Temporairement, les débits de dose ont pu dépasser les 20mSv par an, limite retenue par les autorités japonaises pour délimiter la zone d’accès interdit. Ces résultats invitent à surveiller l’impact des futurs lâchers de barrages susceptibles de relarguer de la contamination dans la section aval du cours d’eau et à réglementer en conséquence les activités de pêche et de loisirs.

La 5e campagne de mesures s’est achevée le 3 novembre 2013. Elle permettra de voir si la baisse de la contamination se confirme ou si les nombreux typhons de 2013, plus violents qu’en 2012, auront à nouveau généré de l’érosion et/ou mobilisé des sédiments contaminés dans les rivières, ce qui se traduirait par une nouvelle hausse des débits de dose dans les sédiments déposés par les cours d’eau.

Ces travaux de recherche sont appelés à se poursuivre jusqu’en 2019, dans le cadre du projet AMORAD financé par le programme des investissements d’avenir en radioprotection et en sûreté nucléaire et piloté par l’IRSN qui devrait débuter début 2014.

Qu’en est-il du  transfert des particules contaminées dans les rivières de la région de Fukushima ?

Série de cartes retraçant l’évolution temporelle de la pollution radioactive dans les sols et les sédiments déposés par les cours d’eau dans la zone la plus contaminée de la préfecture de Fukushima.

Les points colorés indiquent les débits de dose relevés au niveau des laisses de crue déposées par les rivières ; les niveaux de couleur du fond de carte correspondent aux niveaux relevés dans les sols par les autorités japonaises. La zone à accès interdit ou restreint est circonscrite en rouge. La contamination des points de prélèvement situés en amont des cours d’eau dans la zone du panache radioactif principal baisse rapidement d’une campagne de mesure à l’autre. En aval, on observe dans les rivières le dépôt de sédiments plus contaminés que les sols autochtones (présence de points orange ou jaune en zone verte). On observe que, de manière générale, les zones à accès interdit ou restreint définies par les autorités correspondent bien à celles où les débits de dose annuels dans les sols et les sédiments des rivières dépassent les 20 mSv/an[a]. En mai 2013, on constate qu’à de rares exceptions près, les niveaux de contamination dans les sédiments sont systématiquement moins élevés que ceux des sols environnants et que les débits de dose dans les sédiments déposés par les cours d’eau ont également fortement baissé dans la zone à accès interdit ou restreint. Comme la culture des champs de l’amont est interdite et que la végétation y a repris ses droits, l’érosion de ces parcelles est restée très limitée en 2012, ce qui explique la baisse de contamination dans les sédiments de rivière.

[a] Les 20 mSv/an correspondent à la dose retenue par les autorités japonaises pour définir la zone d’exclusion. En France, cette dose correspond à la limite annuelle autorisée pour les travailleurs du nucléaire (la dose annuelle grand public hors radioactivité naturelle est de 1 mSv).

Les gares parisiennes font leur « Show-Colat » !

$
0
0
Les gares parisiennes font leur « Show-Colat » !

Les gares parisiennes font leur « Show-Colat »!

Depuis le 27 novembre jusqu’au 08 décembre 2013, dans le gares parisiennes, les amateurs de chocolat pourront déguster cet aliment des Dieux…

Croqueurs en herbe et gourmands curieux, connaissez-vous vraiment le chocolat, ce produit qui fut la nourriture des Dieux avant d’être celle des Hommes ?

Mettez vos sens en éveil, car à bord d’un TGV tout de chocolat vêtu, une exposition aussi incroyable qu'inattendue vous fera découvrir tous ses mystères et ses secrets.

Petits et grands, vous saurez tout du parcours de ce noble produit, depuis les plantations jusqu’aux plaquettes de chocolat que vous dévorez avec gourmandise !

Venez apprendre à parler la langue du chocolat ! C'est une invitation à la découverte d'un produit exceptionnel que propose cette exposition, un voyage gourmand, unique en France.

Pour sa seconde édition, le Train du Musée des secrets du chocolat, qui avait rassemblé plus de 23 000 visiteurs en 2012, attendra les fondus du cacao sur les quais des grandes gares parisiennes du 26 novembre au 7 décembre. Le rendez-vous à ne pas manquer pour les gourmands de tout âge qui pourront découvrir, à bord du TGV Expo tout de chocolat vêtu, et dans une scénographie renouvelée, une exposition qui leur révélera les mystères du chocolat.

UN PARCOURS GOURMAND POUR TOUT SAVOIR DU CHOCOLAT

Connaissez-vous vraiment le chocolat, ce produit qui fut la nourriture des Dieux avant d’être celle des Hommes ? A bord du Train, les croqueurs en herbe et les gourmands curieux pourront découvrir toute l’histoire du chocolat. Un vrai voyage dans le temps qui commence avec les dieux précolombiens et les conquistadors espagnols jusqu’à à la fabrication industrielle du XIXème siècle.

Mais avant d’arriver entre nos mains, en tablettes, en bonbons, ou en poudre, le chocolat fait un long voyage depuis les plantations de cacao jusqu’à sa transformation finale. Les visiteurs en découvriront toutes les étapes : dans quels pays est produit le cacao, quelles sont les différentes variétés qui y sont cultivées, quels sont les savoir faire, le matériel et les machines qui permettent de transformer les fèves en délicieuses douceurs. De A à Z, tous les secrets du chocolat seront révélés.

A bord du TGV Expo, le chocolat se découvrira aussi à travers les grands noms qui ont fait sa renommée, notamment la Marquise de Sévigné, la plus fameuse ambassadrice du chocolat. Les visiteurs pourront également aller à la rencontre d’Yves Thuriès, doublement Meilleur Ouvrier de France. Ce Maître chocolatier « qui parle la langue du chocolat », révèlera quelques-uns de ses secrets de fabrication...

DES ANIMATIONS QUI TITILLENT LES PAPILLES

Au-delà de la gourmandise, le chocolat est un plaisir ludique. Pour aller au bout de l’expérience, les visiteurs pourront profiter de dégustation de chocolats mais aussi s’attarder pour échanger avec les chocolatiers, et mieux comprendre les différents cycles de fabrication du chocolat avec des mini machines (torréfacteur, moulin à cacao, conche...).

LE CHOCOLAT, C’EST AUSSI BON POUR LA SANTÉ !

Pour qu’Alimentation Santé rime avec plaisir et convivialité, la Fondation PiLeJe (œuvre d’intérêt général à but non lucratif créée par le laboratoire PiLeJe, fondateur de la Micronutrition, discipline médicale enseignée en faculté) est partenaire cette année du Train du chocolat. Elle proposera aux participants, des conférences animées par des médecins nutritionnistes sur l’alimentation santé et les bienfaits de la micronutrition : zoom sur les bénéfices santé indéniables du chocolat, cet aliment gourmand souvent considéré comme un « faux ami ». Entre idées reçues et vertus établies et à quelques semaines des fêtes de fin d’année, venez faire le point avec des médecins nutritionnistes !

Les gares parisiennes font leur « Show-Colat » !

Montez à bord du Train pour un voyage au cœur des « Secrets du Chocolat ».

Du Mexique à l’Afrique, le cacaoyer : un secret de nature

De la récolte des cabosses jusqu’à l’expédition des fèves de cacao, en Amérique Centrale et en Côte d’Ivoire, premier producteur mondial de cacao, vous saurez tout: pollinisation des fleurs du cacaoyer par l’homme ou la Nature, la récolte des cabosses, l’écabossage, la fermentation, le séchage et brassage des fèves, le transport et collecte des sacs de cacao.

Des temples aztèques aux couvents espagnols, du sacré au sucré : le secret des Dieux

Pourquoi le cacao était-il le breuvage des Dieux précolombiens ? Vous découvrirez la cérémonie de fertilité de la plantation de Belcolade et la préparation traditionnelle de la boisson cacaotée au Mexique.

La fabrication du chocolat du XIXème siècle à aujourd’hui: le secret des hommes

De l’officine au chocolat pour tous, de l’artisanat à l’industrialisation, quels sont les savoir-faire, les innovations qui ont permis la mécanisation ? Et comment la publicité a fait entrer les chocolat dans tous les foyers. Pourquoi les vertus du chocolat en font-elles un produit incontournable ?

Frisson chocolat : les secrets de la Marquise

De la Marquise de Sévigné aux créations originales créées par Clémentine et Auguste Rouzaud, comment le chocolat est devenu un produit de luxe, souvent messager de l’amour ? Le rôle de la Marquise de Sévigné dans la diffusion du chocolat au XVIIème siècle a été décisif dans l’adoption de cette graine exotique. Depuis, le chocolat n’a eu de cesse d’être offert dans de jolies boites pour fêter des occasions exceptionnelles. Qu’a-t-il donc de si particulier ? Aphrodisiaque, vraiment ?

Yves Thuriès fait son one-man-chocolat : les secrets de l’homme du sud qui a donné un accent au chocolat

Cuisinier, pâtissier, chocolatier, deux fois Meilleur Ouvrier de France, quels sont les secrets de fabrication d’Yves Thuriès ? Ce sculpteur chocolatier nous emmènera sur les itinéraires du sucré pour découvrir son univers enchancolaté.

Les gares parisiennes font leur « Show-Colat » !

Le chocolat, un aliment bon pour la santé !

Noir, au lait, ou encore blanc; en tablettes ou en ballotins, en carré avec le café, en coulis sur des fruits ou encore tout seul, pour le bonheur de la dégustation... Le chocolat est l’aliment plaisir par excellence. Et 98% des Français disent l’aimer!

Le chocolat, c’est bon pour le moral !

Il est riche en :

- substances toniques : caféine, théobromine, théophylline qui “boostent”.

- phényléthylamine : véritable amphétamine, “hormone de l’amour” qui augmente quand on est amoureux et qui rend euphorique.

- Tryptophane : précurseur de la sérotonine, hormone de la sérénité.

- Magnésium : régulateur de l’humeur

Aliment plaisir par excellence, il fait secréter des endorphines qui procurent bien-être et sérénité.

Le chocolat, c’est bon pour la santé et c’est prouvé !

Le cacao est une source importante de polyphénols (catéchines et épicatéchines), véritables « molécules du futur », aux propriétés antioxydantes. La capacité antioxydante serait :

- 4 à 5 fois plus élevée que celle du thé noir

- 2 à 3 fois plus élevée que celle du thé vert

- 2 fois plus élevée que celle du vin

Différentes études ont démontré l’effet protecteur du chocolat sur...

La maladie d’Alzheimer : le cacao du chocolat contient des antioxydants, les flavanols, aux multiples effets bénéfiques déjà démontrés pour la santé et, en particulier, pour le système cardio-cérébro- circulatoire. Une étude de de la Harvard MedicalSchool d’août 2013, suggère qu’un autre composé du cacao, encore non identifié, pourrait freiner la démence, dont la maladie d’Alzheimer, chez des personnes âgées atteintes de troubles de la circulation sanguine cérébrale.

L’obésité : le cacao, un agent naturel dans la lutte contre l’obésité et ses comorbidités ? Quelques tasses de chocolat, contre toute attente, pourraient contribuer en effet à réduire l'inflammation liée à l’obésité et facteur des maladies liées, comme le diabète, suggère une étude de Penn State publiée dans l’édition du 12 juin 2013 de l’European Journal of Nutrition.

Les maladies cardio-vasculaires : une méta-analyse, publiée le 29 août 2011 dans le British Medical Journal, confirme sur plus de 100.000 participants, les conclusions de nombreuses études : une consommation régulière de chocolat peut être associée à une réduction d'un tiers du risque de maladie cardiaque. Cette confirmation d’un des effets bénéfiques du chocolat a été également présentée le même jour, lors du congrès de l'European Society of Cardiology de Paris.

Une autre étude, publiée dans Circulation, la revue de l'American Heart Association en août 2010, portant sur plus de 30.000 femmes sur une durée de 9 années, conclut aux vertus du chocolat, consommé en quantités modérées, sur la santé cardiovasculaire. Une consommation modérée est en effet liée à un risque diminué de 32% d’insuffisance cardiaque chez les femmes d'âge moyen et plus âgées.

Informations pratiques

Conditions d’accès

Entrée libre

Horaires d’ouverture de 10h à 19h – sauf exceptions *

Gare de Lyon : Mardi 26 novembre - *10h à 18h

Gare de Lyon : Mercredi 27 novembre - *10h à 17h

Gare d’Austerlitz : Jeudi 28 novembre

Gare d’Austerlitz : Vendredi 28 novembre

Gare Saint Lazare : Samedi 30 novembre

Gare Saint Lazare : Dimanche 1er décembre

Gare de l’Est : Mercredi 4 décembre

Gare Montparnasse : Jeudi 5 décembre

Gare de l’Est : Vendredi 6 décembre

Gare du Nord : Samedi 7 décembre

Les gares parisiennes font leur « Show-Colat » !

Pensée du Jour

$
0
0
Pensée du Jour

Pensée du Jour

« Mieux vaut chuter libre dans le ciel infini que de vivre enchaîné dans le renoncement… »

Jacques Lacarrière 1925 - 2005

Face à face entre EDF EN et GDF-Suez pour le 2d appel d’offres éolien en mer

$
0
0
Face à face entre EDF EN et GDF-Suez pour le 2d appel d’offres éolien en mer

Face à face entre EDF EN et GDF-Suez pour le 2d appel d’offres éolien en mer

Ce second appel d’offres portant sur des installations éoliennes de production d’électricité en mer en France métropolitaine qui doit permettre d’ériger environ 200 éoliennes au large des côtes françaises, pour une capacité installée totale de 1 000 MW, verra s’affronter deux consortiums. En compétition, le premier groupement est constitué d'EDF Energies Nouvelles, du développeur allemand WPD Offshore et d'Alstom pour la fourniture des éoliennes, le deuxième est composé de GDF Suez, de l'énergéticien portugais EDP Renovaveis, de neoen marine et d'Areva.

Ainsi, c’est deux groupements ont donc remis leurs offres ce vendredi 29 novembre qui portent sur la construction et l’exploitation de deux parcs éoliens de production d’électricité implantées en mer. Dans deux zones retenues situées au large de la commune du Tréport (Haute-Normandie) et entre les îles d’Yeu et de Noirmoutier (Pays de la Loire). Ces deux zones avaient fait l’objet de concertation approfondie entre 2009 et 2011 menée au niveau local sous l’égide des préfets de région et des préfets maritimes. La zone du Tréport avait été ouverte à la concurrence lors du premier appel d’offres lancé en juillet 2011, mais le prix proposé dans la seule offre déposée était très élevé, ce qui avait conduit le gouvernement à déclarer l’appel d’offres sans suite sur cette zone. "le prix d'achat de l'électricité le plus élevé parmi les 5 zones, et entraîne à lui seul une surcharge de l'ordre de 500 millions d'euros pour la Contribution au Service Public de l'Electricité"

Les deux zones :

> Tréport (Haute-Normandie) – 110 km2 – puissance : 480-500 MW
> Iles d’Yeu et de Noirmoutier (Pays de la Loire) – 79 km2 – puissance : 480-500 MW

Cet appel d’offres doit conduire à la consolidation d’une filière industrielle dans le domaine
de l’éolien en mer. Les projets seront sélectionnés selon 3 critères :

- la qualité du projet industriel et social (40 % de la note finale)

- le prix d’achat de l’électricité proposé (40 %)

- le respect de la mer et de ses usages (20 %)

Elément important dans le critère de sélection, l’introduction d’un plafond pour le prix de l’électricité. La valeur limité étant fixé à 220 € le mégawatheure (MWh). Le prix doit aussi demeurer dans une valeur médiane, majorée de 20 % des prix de l’offre éolienne proposée par l’ensemble des candidats pour les offres situées dans un même lot.

Cet appel d’offres national de 1000 MW vient s’ajouter au premier appel d’offres de 2500 MW, lancé en 2011 qui comprenait cinq projets éoliens au large des côtes françaises (Manche et Atlantique). Parmi les quatre lots attribués par le Gouvernement, trois ont été remportés par le consortium EMF animé par EDF Energies Nouvelles : les projets de Fécamp (498 MW), de Courseulles-sur-Mer (450 MW) et de Saint-Nazaire (480 MW). Les mises en services de ces projets pourraient débuter à partir de 2018. Iberdrola/Eole-Res/Areva avait quant à lui obtenu le parc de Saint-Brieuc (500 MW).

8 MW contre 6 MW :

Pour répondre à cet appel d’offres, GDF SUEZ, EDP Renewables et Neoen Marine ont retenu la nouvelle éolienne AREVA de 8 MW, fabriquée en France. Cette éolienne permet une productivité et un rendement améliorés, un nombre d’éoliennes réduit de près de 40 % sur les parcs et une plus grande compatibilité avec les activités de pêche. Cette éolienne offre également l’avantage de réduire les temps de construction et d’optimiser la maintenance des parcs éoliens.

Cette éolienne de 8 MW conjugue l’expérience industrielle et la fiabilité reconnue de la plateforme technologique d’AREVA dans le domaine de l’éolien en mer.

Quant à EDF Energies Nouvelles et wpd offshore avec Alstom comme partenaire exclusif pour la fourniture des éoliennes, l’éolienne nouvelle génération Haliade™ 150 – de 6 MW, sera proposée. Elle est l’une des plus puissantes du marché, au large des côtes d’Ostende sur le site de Belwind en Belgique. Il s’agit également de l’une des éoliennes en mer les plus efficaces avec un rendement de 15% supérieur à celui des éoliennes de génération actuelle. Après l’obtention de la certification IECde la courbe de puissance délivrée en mai 2013 sur le premier modèle installé à terre au Carnet dans la région pays de la Loire, l’Haliade 150 continuera de faire ses preuves avec l’obtention de la certification complète de la machine courant 2014.

Les investissements générés par cet appel d’offres s’élèveront à environ 3,5 milliards d’euros et permettront de sécuriser les 10 000 emplois industriels directs qui sont attendus par le développement de cette filière d’avenir.


Catherine JACQUOT, présidente de l’Ordre des architectes

$
0
0
Catherine JACQUOT, présidente de l’Ordre des architectes

Catherine JACQUOT, présidente de l’Ordre des architectes


C’est une première réjouissante pour le Conseil national de l’Ordre des architectes qui a élu à sa tête jeudi dernier une femme. Après le renouvellement triennal de la moitié du Conseil national de l’Ordre des architectes prévu par la loi sur l’architecture, c’est Catherine JACQUOT, architecte DPLG, ancienne conseillère du Conseil national, qui a été élue présidente. Elle succède à Lionel CARLI qui a exercé la présidence de 2010 à 2013.

Le Bureau se compose des personnes suivantes : François Rouanet et Denis Dessus : vice-présidents, Jean-Mathieu Collard : Secrétaire et Régis Rioton qui est maintenu dans ses fonctions de Trésorier.

Elu pour trois ans, ce nouveau Conseil national se veut prospectif et efficace. Il entend ainsi donner une image forte et solidaire des architectes auprès du grand public, des élus, des institutions, des maîtres d’ouvrage et des partenaires. Il souhaite également offrir un nouveau regard sur l’architecture aux citoyens et conforter la reconnaissance des compétences professionnelles des architectes

Les surfaces de chauffage et de refroidissement à basse température ne cessent de progresser sur le marché

$
0
0
 Les surfaces de chauffage et de refroidissement à basse température ne cessent de progresser sur le marché

Les surfaces de chauffage et de refroidissement à basse température ne cessent de progresser sur le marché

Lancée en 2011 par COCHEBAT, syndicat national des fabricants de composants et de systèmes intégrés de chauffage, rafraîchissement et sanitaires, pour garantir les performances des systèmes PCRBT (plancher chauffant/rafraichissant basse température), la marque CERTITHERM est devenue la référence sur le marché. A ce jour, CERTITHERM représente plus de 25 % des ventes de PCRBT : 1 maison sur 4 est équipée d’un PCRBT admis à la marque. Les fabricants l’ont bien compris et pas une innovation ne sort aujourd’hui sans passer l’examen de la marque de qualité. Ainsi, après les planchers, ce sont les plafonds, les solutions sèches ou encore les nouvelles chapes ultra performantes que les experts de la marque CERTITHERM mettent à l’épreuve.

Solution économique, écologique et répondant parfaitement à la RT 2012, les surfaces de chauffage et de refroidissement à basse température ne cessent de progresser sur le marché, ouvrant de nouvelles voies de développement. Les matériaux, les équipements, les systèmes de pose évoluent de plus en plus rapidement, sans perdre de vue les impératifs normatifs. Grâce à ses compétences et à son expérience aujourd’hui reconnus par les professionnels, le comité de marque CERTITHERM voit se multiplier les demandes, notamment pour des systèmes nouvelle génération.

Encore peu développé il y a quelques temps, le plafond chauffant fait de plus en plus d’adeptes. Particulièrement adapté aux projets de bâtiments de santé, d’éducation, d’hôtellerie et de maison, c’est une solution saine qui permet de garder intacts les sols tout en garantissant le confort du chauffage par rayonnement. Le plafond climatique Wavin CD4 est le premier système à être admis à la marque de qualité CERTITHERM. Il répond parfaitement aux attentes de la RT 2012 en termes de consommation d'énergie primaire (CEP), de par sa très faible inertie thermique et de par sa surface de diffusion en basse température.

Couvrant jusqu’à plus de 80 % de la surface équipée, c’est une solution particulièrement efficace. Le plafond chauffant présente l’avantage d’être utilisable toute l’année en chauffage et en rafraichissement. Il peut être constitué de modules sur-mesure pour une mise en œuvre sur-mesure.

Dernière innovation majeure du marché PCRBT, la chape hautes performances de la société La Chape Liquide bénéficie déjà de 85 systèmes admis à la marque CERTITHERM. Destinée à l’enrobage des planchers à eau, La Chape Liquide THERMIO+ est la seule chape à hautes performances thermiques garanties (par Avis Technique CSTB).

Spécialement conçue pour les BBC et la RT 2012, cette nouvelle chape apporte en moyenne + 23% d’augmentation du coefficient d’émission thermique pour un rendement maximisé du plancher chauffant. Avec une épaisseur de chape de seulement 2 cm au-dessus des tubes et une diffusivité thermique améliorée de +80%, THERMIO+ bénéficie d’une faible inertie. La montée en température est ainsi plus rapide qu’avec une chape classique pour un confort immédiat des occupants. THERMIO+ possède tous les avantages reconnus des solutions La Chape Liquide à base d’anhydrite : grande fluidité, planéité parfaite, pas de fissuration des sols, pas de joints de fractionnement jusqu’à 300 m2, sans armatures ni fibres.

LA SOLUTION SÈCHE : LA SOLUTION MINCE ET LÉGÈRE POUR LES CHANTIERS HORS DU COMMUN

Présentées sous forme de plaques (béton ou gypse), les solutions sèches pour PCRBT combinent plusieurs atouts : minces et légères, elles s’adaptent aux pièces limitées en hauteur (combles, mezzanines...) et aux planchers ne pouvant supporter de lourdes charges (maison à ossature bois...). De plus en plus courantes, elles s’intègrent principalement dans les chantiers BBC et les travaux de rénovation. Pour répondre à cette demande croissante, deux fabricants, Acome (système Vivracom) et Rehau (système Dalsec), ont soumis leurs solutions au comité de marque CERTITHERM qui valide leurs performances et les différents composants du système par rapport au règlement d’usage. Faciles à mettre en œuvre, les PCRBT en solution sèche sont également rapides à installer.

Le BIM pour faire face aux coûts des incohérences de conception, d’étude, de construction et d’exploitation d'un bâtiment !!!

$
0
0

BIM-.jpg

 Le BIM pour faire face aux coûts des incohérences de conception, d’étude, de construction et d’exploitation d'un bâtiment !!!

Difficile de chiffrer, en France le montant du aux défaillances liées aux phases successives de conception, d’études, de construction et d’exploitation voire de démolition se chiffrerait probablement à plusieurs milliard d’euros.

En effet, lors de sa conception, la définition de l’édifice impose différentes étapes. Hors, en France, le secteur est fragmenté, c’est à dire que le système d’acteur est marquée par la séparation des fonctions depuis la conception jusqu’à l’exploitation. Formant un cloisonnement discontinu qui entraine des visions relativement à court terme.

Sur un processus traditionnel, une quantité d'information importante est perdue entre chaque étape car en général les acteurs ne sont pas les mêmes et n'utilisent pas les mêmes outils et donc pas les mêmes formats de données.

Par ailleurs, d’autres facteurs aggravent le coût de ses incohérences, comme le simple fait que ces informations soient en général saisies plusieurs fois par différents corps de métiers : l'électricien, le plombier, l'équipementier réseau, le chauffagiste, le Bureau d’Étude structures... Ils saisissent tous les mêmes données géométriques du même bâtiment avec parfois des interprétations différentes débouchant sur des résultats quelquefois contradictoires. On estime que les informations relatives à un bâtiment sont saisies en moyenne sept fois. Ces saisies multiples sont sources d'incohérences, de retards de livraisons et d'augmentation du coût de l'ouvrage bâti.

Pourtant le rapprochement de ces angles de vue entraînerait une meilleure cohérence entre la conception et l'exploitation, entre les choix d’investissement, les charges et les activités des utilisateurs. La prise en compte du cycle de vie démontre bien toute l'importance à accorder à l’usage du bâtiment, car les coûts d'exploitation-maintenance sont prépondérants face aux coûts de construction. Ils représentent en effet jusqu’à 75% dans l’immobilier tertiaire. Or, les coûts différés sont souvent inscrits dans les choix techniques en phase de conception et de construction.

En prenant comme hypothèse un bâtiment tertiaire dont le coût d’investissement initial représente 1, les coûts différés pour l’exploitation et la maintenance pendant sa durée de vie représentent 5. La valeur économique de ce qu’il abrite pendant cette même durée de vie (la fonction accueillie et notamment les charges de personnel, qualité de vie, ambiance de travail, confort et santé) représente 200.

Peu exploité en France, un processus de production et de gestion des données de construction tout au long des phases de conception, étude, construction et exploitation voire démolition d'un bâtiment , intitulé BIM (Building Information Modeling) repose sur une « approche plus holistique à la conception des bâtiments ». Elle rassemble les principaux partenaires et professionnels de la conception, tels que les propriétaires, gestionnaires, promoteurs, architectes, ingénieurs, experts-conseils et occupants, en une équipe au rôle fondamental, qui collabore et interagit à toutes les étapes du projet, de la planification initiale jusqu’à l’occupation du bâtiment.

BIM.jpgHerreroBoldt Customer Story

Cette modélisation fournit des représentations numériques fiables du bâtiment – qui servent ensuite à prendre des décisions éclairées, à produire des documents de construction de grande qualité, à prédire la performance, à estimer les coûts et à planifier la construction, voire même, éventuellement, à gérer et exploiter le bâtiment.

Le fait que ce processus ne soit que trop peu répandu en France provient du fait que les acteurs se montrent prudents et hésitent à aller de l’avant à cause du temps et de l’investissement financier que cela suppose.

Et pourtant que d’avantages, en retour…

L’expression « modélisation des données du bâtiment » (Building Information Modeling – BIM) a été inventée par Autodesk pour décrire la « CAO en 3D, orientée objet, particulière à l’AEC (architecture, ingénierie, construction) ». Leader mondial de logiciel de design/architecture et de contenu numérique en 2D et 3D, elle a donc, grâce à l’intégration de technologies innovantes dans son offre, permi aux entreprises et aux cabinets d'architecture de modeliser leur information CAO par l'ajout de logiciel dessin 3d.

La modélisation des données d’un bâtiment est la représentation en format numérique des données du bâtiment, qui facilite l’échange d’information en format numérique.

BIM-1.jpg

La BIM est beaucoup plus qu’une transition de la conception sur papier vers la conception électronique. Les données paramétriques résultant de la BIM permettent de réaliser des estimations, des simulations, des calendriers, des tableaux et des analyses énergétiques plus précis. En outre, la BIM facilite la coordination avec les ingénieurs, les fabricants et les constructeurs. Une des raisons les plus convaincantes pour adopter la BIM est l’avantage de la représentation en trois dimensions (3D) des données de la conception et de la documentation d’un projet par rapport à leur représentation en deux dimensions (2D). Les représentations en 3D permettent à l’équipe de conception de mieux comprendre, visualiser et résoudre les problèmes de conception tout au long de l’élaboration du projet. Il est beaucoup plus facile de coordonner un projet conçu en 3D qu’un projet en 2D qui comporte de multiples documents. Le logiciel conception 3d prévient de nombreuses « erreurs » de conception (notamment celles qui découlent d’une piètre coordination), ce qui fait qu’il y a moins de changements pendant la construction. Après la période initiale d’implantation, la BIM permet aux architectes d’offrir des documents de plus grande qualité et, au bout du compte, d’améliorer la qualité des bâtiments.

BIM-6.jpg

Liste non exhaustive des avantages de la BIM :

• la BIM fonctionne selon le mode de pensée des concepteurs et utilise le langage commun pour les éléments du bâtiment (mur, porte, plancher, etc.);

• la BIM améliore et simplifie la coordination des documents. La modélisation des données d’un bâtiment offre des vues et des détails cohérents et coordonnés qu’il est facile de choisir pour la mise en page et l’impression d’un plan;

• les clients s’attendent maintenant à visualiser les projets en 3D. Les plateformes pour la modélisation des données du bâtiment permettent de réaliser des images en 3D de différentes nuances de gris, des coupes en 3D et des rendus photoréalistes, sans avoir à utiliser des logiciels spécialisés ou posséder des compétences particulières;

• la plateforme des logiciels de modélisation des données du bâtiment simplifie la collaboration avec les autres architectes, designers et consultants du projet;

• les modèles peuvent être exportés en formats usuels des dessins (comme .dwg ou .dxf) et en tableurs, pour créer des tableaux (caractéristique inestimable pour évaluer les coûts, calculer les quantités de matériaux, etc.).

L’adoption de la BIM au sein d’un processus de conception intégrée aide les équipes de conception à déterminer et à comprendre les divers objectifs de conception et leur fournit un mécanisme pour les atteindre. Une équipe de conception dont les participants travaillent tous avec la BIM, seuls ou en réseaux, est plus apte à visualiser les problèmes, à analyser les éléments potentiellement conflictuels, à offrir des solutions créatrices et, finalement, à éviter les « erreurs » de conception.

BIM-2

L’adoption de la BIM pose certains défis communs à tous les bureaux d’architectes, quelle que soit leur taille, notamment :

•            elle oblige les employés à quitter le confort des outils qu’ils maîtrisent bien pour en apprendre de nouveaux;

•            elle entraîne un investissement financier lié au changement des plateformes de logiciels;

•            elle oblige à convaincre la direction d’explorer un nouveau paradigme;

•            elle s’accompagne d’une baisse de productivité pendant la formation et à l’étape de la transition;

•            elle entraîne le développement de bibliothèques de composantes et de détails;

•            elle suppose l’établissement de normes pour le bureau.

BIM-5

Certains défis, toutefois, sont particuliers à la taille du bureau. Ainsi, les petits bureaux trouveront sûrement l’investissement financier plus important que les plus gros bureaux qui ont plus de ressources et une plus grande capacité de financement. Ils auront peut-être aussi plus de difficulté à absorber la baisse de productivité du personnel pendant la phase d’apprentissage et de transition. Les petites équipes ont un réseau limité d’utilisateurs expérimentés de la BIM pour soutenir et conseiller les nouveaux utilisateurs. Si seulement un ou deux employés sont spécialisés dans l’utilisation du logiciel, ils risquent d’être moins productifs, car ils seront souvent interrompus dans leur travail pour répondre aux questions de leurs collègues.

BIM-4

Les plus gros bureaux quant à eux auront peut-être de la difficulté à convaincre leurs diverses directions d’adopter un logiciel de modélisation et de changer leurs façons de faire. L’inertie qui caractérise souvent les grandes organisations peut faire en sorte d’étirer le déploiement du logiciel sur des années plutôt que sur des mois. Si la firme réalise généralement des projets d’envergure et de grande complexité, elle peut aussi avoir de la difficulté à choisir un projet d’une échelle appropriée pour implanter la BIM. Elle peut aussi avoir de la difficulté à identifier les employés qui sont très ouverts au changement de leur mode de travail. De plus, si la firme a plusieurs bureaux dans différentes villes, elle aura peut-être de la difficulté à partager les connaissances et les procédures entre les divers bureaux et elle devra recourir à une stratégie de déploiement plus approfondie. Finalement, elle devra peut-être modifier ses stratégies et ses normes pour s’adapter aux contextes locaux, surtout si elle exerce ses activités dans divers pays et juridictions.

BIM-8

La durabilité pose un défi urgent aux professionnels de la conception et heureusement, la BIM offre de nouvelles possibilités pour la modélisation et l’analyse énergétiques. Les analyses énergétiques actuelles font souvent partie du mandat des ingénieurs en mécanique et électricité. Les architectes ont peu d’outils pour réaliser leurs propres analyses, et s’ils en ont, ils sont très coûteux. Le programme d’analyse énergétique intégré au logiciel de BIM ou compatible avec ce logiciel permettra aux architectes d’étudier plus à fond la consommation énergétique d’un bâtiment.

La modélisation énergétique d’un bâtiment à l’aide de la BIM offre de multiples avantages. Des services Web permettant à l’équipe de conception d’examiner l’impact énergétique des premières décisions de conception en téléchargeant un fichier exporté gbXLM. Avec un certain nombre de projets pilotes qui comparent les méthodes de modélisation énergétique réalisées à l’aide d’un logiciel de modélisation des données du bâtiment et leurs résultats à des pratiques plus conventionnelles de modélisation énergétique.

BIM-3

Des programmes offrant de diverses analyses comme les simulations thermiques, la ventilation par déplacement d’air, les analyses énergétiques requises pour la certification LEED, les analyses d’éclairage naturel et d’éclairage électrique, les analyses de technologies d’énergie solaire, les études de flux d’air interne et externe à l’aide de la dynamique des fluides numériques (CFD) et les études d’évacuation des occupants. L’intégration d’un programme d’analyse à une plateforme de logiciel de modélisation des données du bâtiment facilitant encore davantage l’utilisation du logiciel et inciter les architectes à réaliser un plus grand nombre d’analyses énergétiques.

Il est donc clair qu’une conduite de projets adoptant les principes de développement durable oblige à instruire de nouvelles modalités de décision et de raisonnement avec un retour sur le performanciel. La prise en considération du cycle de vie a, par exemple, favorisé le développement du commissionnement. Cette approche consiste à vérifier et à valider le fonctionnement global de l’ouvrage en suivant une démarche structurée. Débutant avant la livraison et se prolongeant pendant les premiers mois d’exploitation, elle rappelle la nécessité de garantie de performances sur le cycle de vie de l’ouvrage et démontre les avancées d’une collaboration entre conception, gestion et utilisation.

BIM-7

1ère SOLUTION CONSTRUCTIVE BOIS “PASSIVE” SOUS ATEX – LE MUR FRINNFRAME®

$
0
0
1ère SOLUTION CONSTRUCTIVE BOIS “PASSIVE” SOUS ATEX – LE MUR FRINNFRAME®

1ère SOLUTION CONSTRUCTIVE BOIS “PASSIVE” SOUS ATEX – LE MUR FRINNFRAME®

Alors que vont s’ouvrir les portes de la 4ème éditions des Journées de la construction passive, Metsä Wood profitera de cet occasion pour présenter la 1ère solution constructive bois « Passive » sous ATEx.

Créée à l'initiative du CSTB , l'ATEx est une procédure rapide d'évaluation technique formulée par un groupe d'experts sur tout produit, procédé ou équipement ne faisant pas encore l'objet d'un Avis technique, afin de faciliter la prise en compte de l’innovation dans la construction. Exemples d’ATEx : façades légères, verrières, puits de lumière, planchers réversibles, étanchéité des toitures, renforcement des structures…

Présent depuis plus de 20 ans sur le marché français, Metsä Wood (ex Finnforest) se positionne comme un acteur incontournable des systèmes d’enveloppe globale en bois avec une large gamme de produits structurels destinés au marché de la construction dans le neuf et la rénovation, et pour tous types de bâtiments.

Metsä Wood a mis au point un procédé de mur à base de poutres en I FJI Wall et de poutres Kerto® - appelé Mur Finnframe® - idéal pour construire un bâtiment passif. Le 31 juillet dernier, le système de mur Finnframe® a reçu une appréciation technique à l’expérimentation favorable : il devient ainsi le seul système constructif bois spécifiquement dédié à la réalisation de bâtiments à forte isolation sous ATEx.

Le matériau bois est particulièrement bien positionné pour relever le défi de par la modularité de sa mise en œuvre. Conçus avec la poutre en I FJI Wall, les murs à ossature bois offrent une grande variabilité d’épaisseur afin de s’adapter à l’épaisseur d’isolant nécessaire pour atteindre la performance thermique exigée. De plus la forme spécifique, en I, du montant FJI Wall permet la réduction des ponts thermiques de structure et de liaison.

LE PRINCIPE DU SYSTEME FINNFRAME®

Finnframe® de Metsä Wood est une solution complète composée :

• de poutres en I FJI Wall constituées de talons en Kerto® et d’une âme OSB, pour les montants intermédiaires ;

• du matériau Kerto® pour les lisses et les montants « au vent » ;

• d’un panneau assurant le contreventement intérieur (permettant d’assurer une bonne migration de vapeur d’eau).

Entre les poutres en I FJI Wall espacées d’environ 60 cm, le remplissage est fait avec le matériau d’isolation choisi par le concepteur (laine minérale, ouate de cellulose, fibre de bois, autres sous DTA).

Le mur Finnframe® est disponible en 3 épaisseurs, en fonction des poutres FJI Wall choisies, pour atteindre le niveau de performance souhaité : 240 mm, 300 mm, 360 mm.

A noter que l’ATEx délivré le 31 juillet est valable uniquement dans le cadre de murs, dont la structure porteuse est préfabriquée en atelier, intégrant à minima les montants, les lisses et le voile de contreventement (murs dits à « panneaux fermés » ou « semi-fermés »). La fiabilité structurelle est ainsi une composante très importante et mesurable du système.

© Metsä Wood

© Metsä Wood

FINNFRAME®, UN SYSTEME CONSTRUCTIF FACILE A METTRE EN ŒUVRE

Dernière née de la gamme Finnjoist®, FJI Wall permet d’obtenir une poutre économique et très performante mécaniquement pour la construction de mur passif à ossature bois. Elle réduit les ponts thermiques grâce à son âme en OSB.

La forme et la composition de FJI WALL en font une poutre en I d’une grande légèreté facilitant la mise en œuvre, tout en assurant une grande stabilité dimensionnelle. Elle est disponible jusqu’à 14 mètres de longueur, permettant ainsi une optimisation des chutes.

La fabrication et la mise en œuvre d’un mur Finnframe® reste en tout point identique au savoir-faire des charpentiers. Le process de fabrication d’un mur avec la FJI WALL reste inchangé par rapport à un mur à ossature bois classique, et ce quel que soit le niveau de performance thermique recherché.

Le contreventement est posé sur l’intérieur du mur. L’étanchéité à l’air du mur est gérée à ce niveau par collage des joints (adhésifs dédiés ou compression de joints), ou par ajout d’un film pare-vapeur. Le poseur n’a plus qu’à se concentrer sur les jonctions de menuiseries et entre les autres murs pour garantir la parfaite étanchéité de l’enveloppe.

Le Kerto® est le produit complémentaire du mur Finnframe® car il résout facilement tous les problèmes structurels d’un mur à ossature bois : les linteaux pour les grandes ouvertures, les montants « au vent » pour les portes et les fenêtres (plus besoin de tripler ou quadrupler les montants bois massifs et passage d’efforts importants facilité), les lisses basses traitées autoclave...

La poutre en I FJI WALL relève de l’ETA 02/0026 et est marquée CE. Le marquage spécifique du montant FJI est adapté et bien lisible pour une utilisation de la poutre exclusivement en mur à ossature bois.

• Distribution : négoces spécialisés bois et charpentes (www.metsawood.fr/distributeurs)

© Metsä Wood

© Metsä Wood

QUELQUES RÉFÉRENCES DE BÂTIMENTS PASSIFS RÉALISÉS AVEC LE SYSTÈME FINNFRAME®

* Maison Carrée 21 – Pouilly-en-Auxois (21) La Maison Carré 21 est un exemple d’habitat passif, durable, sain, facile à vivre et reproductible qui illustre la possibilité de construire autrement dans une enveloppe budgétaire identique à celle d’une maison traditionnelle. L’objectif était de garantir une efficacité énergétique remarquable de 14 KW/h/m2 par an, soit le niveau de la future RT 2020. L’ossature des panneaux de murs, d’une hauteur d’étage de 3,30 m, est composée de poutres Finnjoist® FJI 45 X 360 mm, fixées dans un cadre en Kerto® et garnies de ouate de cellulose. La résistance thermique du mur est de 9,20 m2.K/W

* Pôle Petite Enfance, Jeunesse et Culture à Dieulouard (54) En cours de construction, le futur Pôle Petite Enfance, Jeunesse et Culture de Dieulouard vise à être un bâtiment passif. Il sera doté de murs Finnframe® de 240 mm d’épaisseur dans lesquels sera insufflée de la ouate de cellulose. La livraison est prévue pour la rentrée 2014.

* Ilot Bossuet – cinq maisons passives à Orléans (45) Pour être certifiées passives, les cinq maisons ont été construites à l’aide d’une enveloppe réalisée avec des caissons préfabriqués en poutres en I Finnjoist® de 300 mm de large, remplis de 300 mm de ouate de cellulose avec un panneau de contreventement de 16 mm, un bardage zinc, mélèze ou enduit et une plaque de plâtre en face intérieure pour atteindre un coefficient de transmission thermique de 0.13 W/m2K.

* Immeuble mixte à Bruxelles (Belgique) Le principe du mur manteau en ossature bois enveloppant complètement la structure béton auto-stable, a permis d’obtenir la performance passive. Les murs sont composés, de l’intérieur vers l’extérieur, d’un OSB de 18 mm, de poutres en I Finnjoist® de 400 mm et d’un panneau en fibres de bois bitumé de 22 mm. L’intérieur des caissons formé par les poutres en I est garni de ouate de cellulose.

© Metsä Wood

© Metsä Wood

Coup d’envoi sur la concertation du projet de loi pour l’adaptation de la société au vieillissement

$
0
0
Coup d’envoi sur la concertation du projet de loi pour l’adaptation de la société au vieillissement

Coup d’envoi sur la concertation du projet de loi pour l’adaptation de la société au vieillissement

Souhaitant impulser le projet de loi sur l’adaptation de la société au vieillissement, le gouvernement vient de lancer une nouvelle étape en lançant une concertation.

En effet, afin de faire voter le projet avant la fin de l’année 2014, le vendredi 29 novembre, le Premier ministre a donné le coup d’envoi de cette nouvelle étape, au cours d’une séance plénière au ministère des affaires sociales et de la santé, aux côtés de Marisol Touraine, ministre des Affaires sociales et de la Santé, et de Michèle Delaunay, ministre déléguée aux Personnes âgées et à l’Autonomie.

Ce projet de loi entend inscrire la question du vieillissement de la population française, illustrée par ces seuls chiffres : en 2060, un tiers des Français aura plus de 60 ans, tandis que le nombre des plus de 85 ans passera de 1,4 million aujourd’hui à près de 5 millions. Cette « révolution de l’âge » est un formidable progrès pour les Français, qui plus est, porteuse de croissance et génératrice d’emplois industriels et de services avec le développement de la « silver économie » autour des besoins et attentes des personnes âgées.

Mais cette représentation demeure un défi majeur : la société doit s’adapter, dès à présent, pour permettre à tous de profiter dans les meilleures conditions sociales, économiques et sanitaires et le plus longtemps possible de ce formidable progrès.

C’est donc à travers trois principes que le gouvernement entend élaborer sa politique.

Anticipation, Adaptation, Accompagnement.

Ainsi pour prévenir la perte d’autonomie, le gouvernement souhaite mettre en place des dispositifs individuels et collectifs. Par ailleurs, il va tenter de reformuler toutes les politiques publiques au regard de l’allongement de la durée de vie de nos concitoyens : politiques de transports, de logement, d’urbanisme, notamment.

Deux convictions fortes traversent le projet politique du Gouvernement :

Q Le choix de la solidarité et de l’équité. Le Gouvernement s’inscrit clairement dans la continuité de la création de l’Allocation Personnalisée d’Autonomie (APA), il y a maintenant plus de 10 ans. En instaurant le droit individuel et universel à une évaluation personnalisée et à un plan d’aide global, l’APA a permis de passer d’une logique d’aide sociale à une logique de droits qui inscrit la solidarité au cœur du pacte citoyen et républicain.

Q Le choix de la décentralisation et de la proximité, puisque la gestion de l’APA est confiée aux départements qui sont chefs de file de l’action sociale et de l’autonomie. L’accompagnement de la perte d’autonomie doit pouvoir s’appuyer sur le savoir-faire des départements, mais aussi des communes, des CCAS ou des autres collectivités territoriales, en matière d’accompagnement social et d’innovation sur le terrain. Les départements sont donc en première ligne de cette réforme, et celle- ci sera construite en étroite concertation avec l’Assemblée des Départements de France (ADF). Le Gouvernement ayant aussi le souci de garantir la solidarité nationale et l’équité de traitement sur l’ensemble du territoire, il veillera à conforter la Caisse Nationale de Solidarité pour l’Autonomie (CNSA) dans son rôle de « maison commune » de l’autonomie.

Concrètement, ce projet qui vise la mise en place d’un parcours d’autonomie pour les personnes âgées sera mené en deux étapes :

Dans la première étape seront engagées les mesures permettant le maintien à domicile aussi longtemps que possible et de garantir aux personnes âgées toute leur place dans la société. Elles entreront en application dès janvier 2015.

La seconde étape portera sur l’accompagnement et la prise en charge des personnes âgées dans les établissements. Ces mesures seront mises en œuvre dans la seconde partie du quinquennat.

Mobilisation de la société tout entière :

Le Gouvernement entend construire son projet par la concertation. Les départements et acteurs du secteur médico-social –institutionnels et de terrain- y seront étroitement associés. De même, les partenaires sociaux et représentants des usagers, mais aussi les autres collectivités locales (régions, communes ou leurs regroupements, centres d’action sociale) y auront toute leur place. Enfin, démarche inédite pour notre pays, les acteurs du logement, des transports, de l’urbanisme, de la citoyenneté et de la silver économie y participeront aussi. Il s’agit en effet de mobiliser la société toute entière autour de ce projet.

Permettre aux français de rester le plus longtemps possible chez eux :

Au cours de cette concertation, les partenaires seront saisis de plusieurs propositions de mesures visant à améliorer les conditions du maintien à domicile et à reconnaître les personnes âgées dans tous leurs droits, à la vie sociale, à la santé, à l’autonomie, en respectant leur projet de vie. Rester le plus longtemps possible chez soi, rester actif et acteur de la vie de la cité : tel est le souhait d’une très grande majorité de Français. La concertation portera aussi sur les questions de la gouvernance de la politique de l’âge, locale et nationale.

- Permettre un accès plus large aux aides techniques (barres d’appui, téléassistance, domotique, ...) pour ceux qui en ont le plus besoin, pour prévenir la perte d’autonomie par l’adaptation du logement et de l’environnement immédiat des personnes âgées.

- Développer l’offre de logements intermédiaires entre domicile et établissement, notamment par un soutien aux foyers-logements. Il est ainsi proposé de moderniser leur régime juridique, d’accompagner leur rénovation (en partenariat avec les collectivités territoriales), et de créer pour ces structures un « forfait autonomie » qui permettrait la mise en œuvre d’actions de prévention individuelle ou collective et d’animations au profit des résidents.

- Engager un « acte II » de l’APA (Allocation Personnalisée d’Autonomie), afin d’une part de proposer davantage d’heures d’aide à domicile et des prestations plus diversifiées à ceux dont le plan d’aide est aujourd’hui insuffisant au regard de leurs besoins, et d’autre part de réduire la contribution financière des bénéficiaires (allégement du reste à charge).

- Intégrer dans l’APA un « droit au répit » pour les aidants, en leur accordant une aide financière en cas de recours pour leur proche âgé à un accueil de jour, accueil de nuit ou à un hébergement temporaire. Nous devons soutenir et valoriser les aidants, pivots du soutien à domicile, en leur donnant des moments de pause, en facilitant la conciliation entre leur vie professionnelle et l’aide qu’ils apportent à leurs proches, en leur permettant de se former et en les accompagnant.

- Mettre en place sur l’ensemble du territoire – avec les départements et les communes – des dispositifs garantissant une information, une orientation et un accompagnement des personnes âgées et de leurs aidants, grâce notamment à la création d’un portail internet regroupant les informations sur les établissements et tous les services utiles à la prise en charge de la perte d’autonomie. Trop souvent, les personnes âgées et leurs aidants ont le sentiment de traverser un véritable parcours du combattant face à la complexité des dispositifs d’aide et de prise en charge. Il faut transformer ce parcours du combattant en parcours d’autonomie.

Garantir aux français une offre de maisons de retraite accessible financièrement :

La deuxième étape de la réforme, dont la mise en œuvre est prévue pour la seconde partie du quinquennat, portera sur l’accompagnement et la prise en charge en établissement. Elle intègrera des mesures permettant de réduire le reste à charge des résidents en EHPAD, établissements d’hébergement pour personnes âgées dépendantes.

L’objectif est de garantir à tous une offre en maisons de retraite accessible financièrement.

Toutefois, rendre ces établissements plus accessibles sans simplifier les dispositifs d’aide existants (APA, aides au logement, aide sociale à l’hébergement) ne permettrait pas d’aller au bout de la réforme. En effet, la tarification et le système de contractualisation des maisons de retraites sont aujourd’hui complexes et peu lisibles. C’est pourquoi le Gouvernement souhaite se donner les moyens et le temps d’une réforme ambitieuse.

Il sera donc mis en place un groupe de travail avec les départements et les représentants des gestionnaires d’établissements début 2014, pour une remise de conclusions avant la fin de l‘année. Sa mission portera notamment sur les coûts, les tarifs et les aides apportées aux personnes âgées, et ce dans une logique de simplification -pour les usagers comme pour les établissements ou leurs financeurs- et de modernisation des relations entre établissements, agences régionales de santé et conseils généraux.

Viewing all 2312 articles
Browse latest View live