| | | | | | | Edition du 01 Novembre 2019 |
| |
|
| Edito L’incroyable retour de la marine à voile !
Avant propos : Comme chaque semaine, jusqu'à la fin de l'année, je vous dis où en est notre campagne de dons. Au moment où je finis la rédaction de cet édito (Mercredi soir) nous sommes à 12.856 euros, soit 622 euros de plus en une semaine. Nous sommes encore assez loin du seuil minimum (15.000 €) mais j'ai confiance. Je remercie bien sincèrement les 168 personnes qui ont déjà fait un don, don souvent accompagné d'un mot très sympathique. Si vous voulez aider RT Flash, Lettre d'Informations Scientifiques, gratuite et sans publicité depuis 1998, appuyez sur le lien suivant: Faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale ÉDITORIAL : La décision n’a pas fait la une des médias, mais elle est pourtant historique, le Comité de la protection du milieu marin de l'Organisation maritime internationale (OMI), qui s’est réuni à Londres, a enfin adopté un texte qui propose au secteur de réduire les émissions de gaz à effet de serre des navires d’au moins 50 % d'ici à 2050 (par rapport à 2008). Il fixe aussi à 2023 la date butoir de sa stratégie révisée en matière d'émissions de CO2. Le secteur maritime, avec ses 90 000 navires marchands en circulation, transporte plus d’un milliard de tonnes par an, soit 90 % du commerce mondial. Ses émissions de CO2 représentent déjà plus de 3% des émissions mondiales annuelles, soit l'équivalent des émissions totales de l'Allemagne, pays qui est le 6ème émetteur mondial. En 2020, les émissions du fret maritime dépasseront le milliard de tonnes de CO2, soit plus du double que leur niveau de 1990. Et en 2050, elles pourraient atteindre, si aucune mesure de réduction n’est prise, 17 % des émissions globales de CO2 (plus de 2,5 gigatonnes de CO2 par an), ce qui n’est pas acceptable. La feuille de route décidée par l’OMI prévoit trois grands objectifs qui s’inscrivent dans une ambition globale de suppression des émissions ; à court terme : plafonner les émissions le plus tôt possible ; à moyen terme : réduire les émissions à la tonne transportée d'au moins 40 % d'ici à 2030 par rapport à 2008, et enfin à long terme : réduire le volume total des émissions annuelles d'au moins 50 % d'ici à 2050, par rapport à 2008. Pour relever ce défi de la décarbonisation du transport maritime, un premier levier peut être actionné rapidement, la régulation de la vitesse, qui constitue une mesure très efficace pour réduire les émissions des navires. Pour des navires de plus en plus lourds et gourmands en énergie, la vitesse a en effet un impact très important sur la consommation : un pétrolier qui réduit sa vitesse de 12 nœuds à 11 nœuds réduit sa consommation de 18 % et cette diminution peut atteindre 30 % si sa vitesse est réduite à 10 nœuds. En outre, une telle mesure ne suppose pas de longues et coûteuses transitions technologiques, mais simplement une volonté politique forte au niveau international. En avril dernier, afin de diminuer à court terme l’empreinte carbone du transport maritime, la France a pour sa part déposé un projet de régulation mondiale de la vitesse des navires auprès de l’Organisation maritime internationale (OMI), mais celui-ci ne sera pas examiné avant 2020 et rencontre de vives résistances au sein de ce secteur économique en plein essor. Il y a un an, en octobre 2018, la division navale de Rolls-Royce a annoncé pour sa part un partenariat avec Intel. Ces deux firmes veulent devenir leader dans un domaine stratégique pour l’avenir : le développement de cargos capables de naviguer sans équipage, dans toutes les conditions météorologiques sur les océans, d’ici 2025. Elles comptent s’appuyer, pour atteindre cet objectif ambitieux, sur le système de détection d’obstacles intelligent « Intelligent Awareness System », présenté par Rolls Royce en 2018 et sur les nouveaux microprocesseurs d’Intel, à très grande puissance de calcul. En traitant très rapidement un flux considérable de données issues d’un réseau de caméras (HD et thermiques), de radars et de lidars (qui fonctionnent comme des radars, mais avec des lasers au lieu d’ondes), ce système peut détecter les obstacles et calculer la distance qui les sépare du navire. Un algorithme dédié permet alors d’adapter la navigation à l’environnement du navire. D’ici 5 ans, Rolls-Royce pense être en mesure de proposer une technologie fiable et performante permettant de piloter les navires depuis un centre de contrôle à terre. Ce système de contrôle devrait également permettre une optimisation en temps réel des itinéraires maritimes et permet une navigation fluide même par mauvais temps, ce qui devrait se traduire par une réduction sensible des besoins en énergie de ces navires au tonomes. En Norvège, le premier navire porte-conteneurs sans pilote au monde est actuellement en cours de développement, Conçu par l'armateur norvégien Kongsberg Gruppen, le Yara Birkeland est alimenté par une batterie électrique de 9 MWh, et n’émet pas de CO2. Long de 80 mètres et large de 15, ce premier porte conteneur autonome pourra transporter 120 containers (type EVP) sur une ligne régulière en Norvège depuis l’usine chimique norvégienne Yara, basée dans la péninsule d’Herøya à Porsgrunn, jusqu’aux ports de Brevik et Larvik. Actuellement, ce transport requiert plus d’une centaine de camions fonctionnant au diesel, effectuant environ 40 000 transports par an. Là encore, les manœuvres automatisées sont sécurisées par des radars lasers (lidars), et des caméras optique et infrarouge, et les données recueillies sont traitées par un puissant logiciel d’IA. À terme, ce navire pourra circuler à la vitesse de 6 à 13 nœuds à moins de 12 milles marins des côtes, accoster et s'amarrer sans nulle intervention humaine. Dans les installations portuaires, des grues et systèmes robotisés de levage et de transports assureront également le chargement et le déchargement de manière automatique... De 2020 à 2022, le navire sera progressivement mis en service, d'abord sous surveillance de personnels embarqués, puis de manière de plus en plus autonome. Dans le secteur en plein essor des navires de croisière, les choses aussi évoluent : l'« Aida Nova » (groupe Costa Croisières) a été le premier paquebot de croisière au monde propulsé au gaz naturel liquéfié (GNL) à prendre la mer fin 2018 pour une croisière inaugurale au départ de Hambourg. Dans quelques jours, un autre navire propulsé au GNL, le « Costa Smeralda » sera livré à son tour. Destiné à des voyages en Méditerranée, il aura son port d'attache à Savone, en Italie, et fera régulièrement escale à Marseille. Ces navires utilisent le gaz naturel liquéfié, un carburant qui permet de réduire considérablement les émissions de particules fines, d'oxyde de soufre, d'oxyde d'azote et de CO2. Il représente cependant un surcoût important aussi bien dans la conception des bateaux que pour leur remise en état. Le « Costa Smeralda » coûtera ainsi 1 milliard d'euros, et il faudra trente ans pour l'amortir. Mais ce bateau de nouvelle génération aura une capacité plus grande (plus de 6.500 passagers), ce qui compensera en partie ce surcoût pour les croisiéristes. Mais parallèlement à ces évolutions réglementaires mondiales (réduction de la vitesse), à ces révolutions technologiques en cours en matière de carburants et à l’arrivée de navires autonomes, une autre révolution, bien plus surprenante, celle-là, est en train de toucher le transport maritime : le retour de la voile – dans sa version high-tech - comme mode de propulsion pour le transport maritime de marchandises. Récemment à Londres, près de Trafalgar Square, dans la Royal Institution of Naval Architects (RINA), a eu lieu une conférence consacrée à la propulsion vélique. L'enjeu : démontrer à des armateurs et affréteurs souvent sceptiques que l'assistance du vent peut permettre des économies de carburant substantielles et un transport plus propre, ce qui devient essentiel pour l’image de marque de ces compagnies auprès du grand public. Comme l’a souligné Gavin Allwright, secrétaire général de l'International Windship Association (IWSA), organisatrice de l'événement, « Le vent, c'est une énergie infinie et gratuite et nous avons 5.000 ans de retour d'expérience dans son utilisation ». Au cours de cette conférence, les organisateurs ont souligné qu’à partir du 1er janvier 2020, les bateaux vont devoir drastiquement réduire leurs émissions de soufre, en recourant à un carburant plus propre, donc plus cher, ou en nettoyant les fumées d'échappement. « Cette décision de l'OMI a donné une vraie impulsion à la propulsion vélique », estime Gavin Allwright qui appelle de ses vœux la mise en place d'une taxe carbone universelle pour rendre plus compétitive la propulsion vélique pour le fret. Quant au marché de la navigation commerciale à voile, il est promis à un bel avenir : une étude du gouvernement britannique estime le marché de la propulsion éolienne à quelque deux milliards de livres (2,3 milliards d'euros) en 2050. Le cabinet indépendant CE Delft prévoit pour sa part que p lus de 10.000 bateaux pourraient être équipés à l'horizon 2030. Et ce retour de la marine à voile n’a rien d’anecdotique ou de folklorique, car il s’appuie sur les technologies les plus modernes. La société nantaise Neoline a par exemple signé en juillet dernier, au parc des expos de la Beaujoire, une lettre d’intention avec l’industriel ligérien Neopolia portant sur la commande de deux premiers cargos à voile. La construction du premier navire débutera fin 2019 pour une livraison fin 2021. Basée à Saint-Nazaire, Neopolia fait partie d’un réseau regroupant 235 entreprises industrielles des Pays de la Loire. Elle a été retenue après un appel d’offres international lancé auprès d’une quinzaine de chantiers navals. Longs de 136 m, dotés chacun de deux mâts, ces navires atypiques pourront transporter l’équivalent de 280 conteneurs ou de 500 voitures. Ils navigueront principalement grâce à une voile de 4 200 mètres carrés qui pourra permettre une vitesse allant jusqu’à 11 nœuds. En l’absence de vent, un moteur diesel de 400 kilowatts (kW) (fonctionnant au gasoil, bien moins polluant que le fioul lourd) pourra prendre le relais et atteindre une vitesse maximale de 14 nœuds. Un pack batterie est également prévu en renfort du moteur Au final, l’armateur espère une économie de 80 à 90 % de la consommation et de l’empreinte carbone associée. « Notre équipe se consacre maintenant pleinement à mobiliser le financement nécessaire à la concrétisation de ce projet industriel innovant, écologique et emblématique pour la région Pays-de-la-Loire et la France », précise Michel Pery, président de Neoline et ancien capitaine de la marine marchande. Le coût total des deux bateaux est estimé entre 80 et 90 millions d’euros. Une fois construit, le premier cargo à voile relierait à partir de 2022 Saint-Nazaire à Baltimore (Etats-Unis) avec une escale au retour à Saint-Pierre et Miquelon. Plusieurs firmes, dont Renault et Manitou ont déjà fait part de leur intérêt pour un éventuel transport de leurs marchandises dans ces cargos à voile. « Nous sommes convaincus que la propulsion vélique est une nouvelle filière d̵ 7;excellence avec un fort potentiel de développement », ajoute Michel Pery. A plus long terme – 2030 – Neoline envisage, si cette première ligne vélique transatlantique tient ses promesses, de construire des cargos à voile encore plus gros (210 mètres de long) équipés de trois mâts… Autre projet qui montre que le renouveau de la marine à voile est en marche, celui de TOWT (Transoceanic Wind Transport), une jeune compagnie maritime française de transport à la voile créée en 2009 par le brestois Guillaume Le Grand et la bogotéenne Diana Mesa. Les quatre voiliers ont permis l'an dernier de transporter 220 tonnes de marchandises. Mais aujourd’hui, TOWT projette de construire un voilier cargo et de créer un label pour les produits transportés grâce à une navigation décarbonée. Ce futur cargo à voile aurait 60 mètres de long et pourrait transporter 1.000 tonnes de marchandises ; il disposerait d'un véritable chai à bord pour le stockage de 120 barriques de vin. Doté d'un équipage formé de seulement 8 personnes, ce trois-mâts pourra effectuer 3 trajets transatlantiques par an à une allure moyenne de 11 nœuds, contre les 14 à 16 nœuds des cargos conventionnels. « Nous voulons créer un bateau compétitif, peu cher à exploiter », assure Guillaume Le Grand. Un système de propulsion à hydrogène, fonctionnant uniquement pour les manœuvres portuaires alimentera un moteur électrique. Des batteries chargées par l'énergie produite grâce aux mouvements de l'hélice permettront d'assurer l'ensemble des besoins électriques du bord. Selon TOWT, ce premier cargo vo ilier évitera, sur trente années d'exploitation, l’émission d'un million de tonnes de CO2. Dans le cadre de son projet, TOWT vient de créer le label nommé Anemos (de vent, en grec ancien, « ánemos ») apposé sur tous ses produits transportés à la voile afin de garantir qu'ils ont parcouru des milliers de milles marins grâce à une navigation totalement décarbonée. Le cabinet d'architecture naval VPLP design, basé à Vannes et Paris, travaille pour sa part, en collaboration avec le groupement Alizés, qui regroupe le spécialiste des services offshore "Jifmar" et la compagnie maritime "Zéphir et Borée", et dans le cadre de l’appel à projets lancé par ArianeGroup, sur le projet « Canopée », un cargo de 120 mètres de long, équipé de quatre ailes. Le bateau de type "roulier" servira à transporter des éléments de la fusée Ariane vers la Guyane. Là aussi, il s’agit de concevoir un navire rentable et à faible empreinte carbone. Ce projet consiste à trouver une nouvelle solution de transports entre l'Europe et la Guyane pour les éléments du nouveau lanceur Ariane 6. Le cabinet d'architecture navale propose ce bateau de 121 mètres de long, 27 de large, éq uipé de 4 ailes de 30 mètres de haut. Ces ailes seront un complément au système de propulsion du navire. Ce navire révolutionnaire devrait permettre, à charge égale transportée, une réduction d’au moins 30 % des consommations de carburant et des émissions de CO2. En combinant de manière ingénieuse l’énergie gratuite et inépuisable du vent et les nouveaux modes de propulsion à faible émission de CO2, et en utilisant également toutes les potentialités de l’intelligence artificielle et de la robotique en matière d’automatisation et d’optimisation d’itinéraires, le transport maritime est sur la bonne trajectoire pour pouvoir réduire d’au moins un milliard de tonnes ses émissions annuelles de CO2 d’ici 2050, et cela en dépit d’une augmentation de 50 % de la flotte marchande mondiale. Confronté au défi du changement climatique et de la protection de l’environnement, le secteur des transports va permettre à la marine à voile de vivre un nouvel âge d’or, et la force du vent va contribuer de manière décisive à donner à l’Humanité les moyens de sortir définitivement de l’ère des énergies fossiles. Notre pays, grande puissance maritime, doit évidemment prendre toute sa place dans cette extraordinaire mutation technologique et économique qui s’esquisse et va traverser ce siècle. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Nanotechnologies et Robotique | |
| | | Facebook vient de racheter la firme CTRL-labs, une startup spécialisée en neurotechnologie. Le géant des réseaux sociaux entend ainsi accélérer le développement de son bandeau permettant de contrôler, grâce à la pensée, téléphones, ordinateurs et autres appareils, l’idée étant de pouvoir utiliser les appareils du quotidien, sans les toucher. CTRL-labs travaille depuis plusieurs années sur le contrôle des appareils via le cerveau. Pour cela, elle utilise un bracelet qui transmet des signaux électriques du cerveau vers les machines pour réaliser une action. Il mesure l’activité neuronale et reproduit le mouvement sur un écran. Facebook souligne « qu'il existe des moyens plus naturels et plus intuitifs d’interagir avec les appareils et la technologie, ce qui explique l'acquisition de CTRL-labs ». Avec cette acquisition, Facebook espère présenter plus rapidement son appareil portable permettant de taper sur une machine grâce à la pensée, mais également présenter une paire de lunettes AR pour interagir facilement avec d’autres appareils. Il est vrai que dans ce domaine stratégique, la concurrence est rude : Neuralink devrait d’ici 2020 lancer ses interfaces cerveau-machine. Article rédigé par Georges Simmonds pour RT Flash The Verge | | ^ Haut | |
|
| | | Bien que le bois soit exploité par l’homme depuis la nuit des temps, sous toutes ses formes, pour concevoir du mobilier, du papier ou encore des textiles, les procédés de transformation conventionnels ont pour conséquence de détruire l’architecture des cellules du bois. Le bois est un matériau fascinant car constitué d’un assemblage de biopolymères qui s’opère à différentes échelles un peu à la manière de poupées russes. Ainsi, les cercles visibles à l’œil nu sont eux-mêmes composés de cellules microscopiques en forme de nid d’abeille, dont les parois peuvent également être considérées comme un matériau composite. Mais ce n’est pas tout : si on observe attentivement ces parois, on constate qu’elles sont un agencement de plusieurs couches concentriques de fibres de cellulose, contenant des microfibrilles nanométriques enrobées d’une matrice organique. C'est cette architecture cellulaire si particulière, appelée ultrastructure du bois, qui intéresse l’équipe de chercheurs dirigée par le professeur Paul Gatenholm. En effet, au cours de leurs travaux précédents, ils avaient déjà réussi à transformer de la pâte à bois en un gel de nanocellulose, la première étape vers la création d’une encre utilisable en impression 3D. Cette fois-ci ils ont été beaucoup plus loin en interprétant le code génétique du bois afin de programmer une imprimante 3D. Ceci leur a permis à la fois de contrôler l’orientation des nano fibrilles de cellulose au cours de l’impression et la forme en nid d’abeille des cellules. L’équipe du professeur Gatenholm a d’ores et déjà développé plusieurs prototypes en vue d’une industrialisation. Ils ont par exemple élaboré un concept de packaging innovant en imprimant des structures en nid d’abeille autour de particules solides qui se retrouvent emprisonnées dans les parois. Comme la cellulose est une excellente barrière à l’oxygène, il s’agirait donc d’un procédé d’encapsulation permettant d’emballer des denrées alimentaires ou pharmaceutiques. Cette technique permettrait ainsi de concevoir des emballages localement, sur mesure, et d’éviter l’utilisation de plastique dérivé du pétrole, sans créer de déchets. Les technologies d’impression 3D font aujourd’hui partie des éléments clés de la conquête spatiale, car elles permettent notamment aux astronautes de réparer des équipements et de concevoir des outillages. Par ailleurs, les futurs longs voyages spatiaux vers Mars imposeront certainement la plantation de végétaux pour la production de nourriture. Or, la cellulose a la particularité d’être une matière première renouvelable qui peut être extraite facilement des plantes. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| Une étude réalisée par des chercheurs de l'EPFL (Ecole Polytechnique Fédérale de Lausanne) montre qu’il existe un facteur psychologique significatif qui modifie notre perception thermique d’une pièce en fonction de la quantité de lumière du jour présente. Avant d’arriver à cette conclusion, Giorgia Chinazzo, première auteure de l’étude, a placé 42 hommes et 42 femmes durant trois heures dans un environnement thermiquement contrôlé. Cet espace lui a permis non seulement de varier les niveaux de température de 19, à 23 et 27 degrés, mais aussi la quantité de lumière du jour, en recouvrant les vitres de filtres sombres. La luminosité passait ainsi de basse, à moyenne et à élevée, aléatoirement d’un candidat à l’autre. En parallèle, la chercheuse a mesuré en continu la température du corps des volontaires, âgés entre 18 et 25 ans. Les participants n’ont pas été mis au courant du réel objectif de l’étude pour ne pas en fausser les résultats. La chercheuse leur a fait passer un test de performances cognitives (raisonnement logique, compréhension de texte, etc.), en glissant subrepticement à la fin de l’entretien des questions sur leur perception de la pièce, leurs sensations (ont-ils froid ou chaud ?) et leur confort (aiment-ils les conditions thermiques de la pièce? S’y sentent-ils à l’aise ?). Résultats ? Les participants ont jugé plus acceptable et thermiquement confortable l’espace à 19 degrés lorsque la pièce était fortement éclairée par la lumière du jour que lorsqu’elle était peu éclairée ; alors même qu’aucune variation de température corporelle n’était enregistrée. A l’inverse, lorsque la pièce était plus chaude, les sujets se sont sentis plus à l’aise avec une luminosité basse plus qu’élevée. Là non plus, aucune variation de température du corps ne venait corroborer ces perceptions, qui sont donc purement psychologiques. Pour les auteurs de l’étude, il est plausible que ces sensations thermiques aient été déterminées uniquement par la présence de lumière du jour dans la pièce, sachant que la différence prédominante entre ces tests et l'expérience contrôlée réalisée dans les années 1970 est le type de lumière. En d’autres termes, les chercheurs émettent l'hypothèse que les gens supporteraient plus la chaleur dans une pièce éclairée par la lumière du jour que dans une pièce éclairée par l’électricité tout simplement parce qu’ils s’attendent à ressentir plus de chaleur. Les sensations thermiques des volontaires étaient comparables à une perception de la température de 1,7 degré inférieure à la température réelle de la pièce ce qui, pour le domaine, est un écart significatif et peut entraîner une réduction de l'énergie utilisée pour refroidir les bâtiments, surtout lorsque ceux-ci bénéficient de lumière naturelle continue. « Ces résultats montrent que nous climatisons peut-être trop certains espaces, notamment les bureaux construits dans les bâtiments entièrement vitrés, car la simple présence de lumière du jour rend la chaleur plus tolérable », commente Giorgia Chinazzo. « Si notre hypothèse se confirme, nous pourrions effectuer des économies d’énergie en privilégiant l’éclairage naturel à l’&ea cute;clairage artificiel lors de la construction et la rénovation d’un bâtiment, tout en améliorant le confort thermique des occupants ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Aujourd'hui, dans le domaine des transports comme dans l'industrie, l'utilisation d'hydrocarbures (le pétrole, l'essence...) entraîne la production de dioxyde de carbone (CO2) rejeté dans l'atmosphère. Pour contrer cette forme de pollution, des chercheurs du Collège de France se sont penchés sur le procédé inverse et ont imaginé transformer le CO2... en alcool. Ce dernier peut être transformé en bioéthanol et donc en carburant pour certaines voitures à moteur essence (et pas en boisson pour l'apéro, donc). Ils ont réussi à transformer le CO2 grâce à un nouveau catalyseur, une substance qui augmente la vitesse des réactions chimiques. « Quand on mélange du CO2 à de l'eau et à de la lumière, il ne se passe rien. Pour que les choses changent, il faut un catalyseur », explique le Professeur Marc Fontecave, titulaire de la chaire de chimie au Collège de France. Le nouveau catalyseur qu'il a composé avec son équipe est composé d'un nouveau matériau carboné (graphitique) dopé à l'azote et au cuivre. Ensuite, pour lancer le processus, l'équipe de scientifiques a utilisé un électrolyseur, une machine qui permet de réaliser des transformations chimiques grâce à un courant électrique. Dans des conditions douces, dans l’eau à Ph neutre, à température ambiante, un tel catalyseur permet la production d’éthanol, non seulement avec un très haut rendement (rendement faradique proche de 60 %, presque un record) mais aussi avec une très grande sélectivité puisque c’est le seul produit issu de CO2 présent dans la phase liquide, la phase gazeuse contenant un mélange de CO et H2. Cette transformation est réversible de sorte que le catalyseur peut être considéré comme très stable. Cette découverte ouvre de vastes nouvelles perspectives industrielles pour la transformation du CO2 en éthanol. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| C’est un procédé unique au monde qu’ont mis au point deux entreprises françaises, Haffner Energy, une PME basée dans la Marne, et Réseaux-Gaz de Strasbourg (R-GDS). Il s’agit de fabriquer de l’hydrogène vert à partir de biomasse, sans émettre de CO2. Une trentaine de bus strasbourgeois pourraient ainsi rouler chaque jour à partir de 2021. Si l’hydrogène permet déjà d’alimenter des taxis à Paris, et même des bus depuis le mois de septembre, en ne laissant échapper que de l’eau, celui-ci reste produit à partir d’énergies fossiles, ce qui plombe son bilan carbone. Avec Hynoca, le gaz sera produit grâce à la thermolyse (chauffage à 400 degrés) de déchets forestiers et agricoles, une technique moins coûteuse que l’électrolyse de l’eau et des énergies renouvelables. « Notre objectif, c'est cinq euros le kilogramme d'hydrogène en 2021 pour descendre à trois euros le kilogramme en 2025. Nous serons alors compétitifs avec les énergies fossiles hors taxes », explique Philippe Haffner, président et cofondateur de Haffner Energy. Un démonstrateur industriel va être installé dans la banlieue de la capitale alsacienne, sur le site de R-GDS, et devrait produire 650 kilos d’hydrogène par jour. De quoi faire rouler l’équivalent de 1 500 véhicules par an (parcourant en moyenne 15 000 kilomètres). Un prototype installé à Vitry-le-François et cofinancé par l'Ademe (Agence de l'environnement et de la maîtrise de l'énergie) assure déjà une production de 120 kilogrammes par jour. L'enjeu est désormais de valider le procédé à l’échelle industrielle. En cas de sous-exploitation, l'installation, qui a nécessité sept millions d’euros d’investissement, pourra produire de l'hypergaz injectable dans les réseaux de chaleur. Article rédigé par Georges Simmonds pour RT Flash Novethic | | | |
| Des chercheurs du CEA et du CNRS ont montré qu’en introduisant, dans la bactérie modèle Escherichia coli, la combinaison de deux gènes, l’un codant pour une enzyme de plante, l’autre pour une photoenzyme de microalgue , on pouvait obtenir une culture bactérienne qui produit en continu des quantités importantes d’hydrocarbures volatils. L’enzyme de plante permet de raccourcir les acides gras produits naturellement par la bactérie. La photoenzyme de microalgue permet, sous l’effet d’une faible lumière apportée à la culture, une conversion efficace de ces acides gras raccourcis en hydrocarbures encore plus petits, donc plus volatils. Ces hydrocarbures ont tendance à sortir des cellules et peuvent donc être simplement capturés et concentrés à partir de la phase gazeuse des cultures. Ils ont en outre l’avantage d’être sous une forme très pure, ce qui limite la formation de particules fines lors de la combustion. La prochaine étape sera de transférer ce procédé à un microorganisme photosynthétique (microalgue ou cyanobactérie), c’est-à-dire à un microorganisme qui ne nécessitera plus d’ajout de sucre dans le milieu de culture, contrairement à E.Coli, mais utilisera le CO2 atmosphérique comme source de carbone. L'utilisation de microorganismes pour produire des carburants est une voie prometteuse mais n'est pas encore économiquement viable du fait d’étapes très coûteuses : récolte de la biomasse (cellules), extraction des produits d’intérêt, transformation chimique en carburants et élimination des impuretés (raffinage). Le procédé décrit s’inscrit donc dans une stratégie de réduction des coûts par production de molécules de type hydrocarbures qui sont directement utilisables comme carburants et plus facilement récupérables que d’autres composés qui ne sont pas volatils et doivent donc être extraits des cellules (par exemple les huiles de réserve). Les études de production d’hydrocarbures par des microorganismes, qui avaient été menées jusqu’à présent, s’étaient intéressées essentiellement aux hydrocarbures présents à l’intérieur des cellules et peu à ceux relâchés dans la phase gazeuse des cultures. Cette étude représente une avancée significative en apportant donc la démonstration que les hydrocarbures peuvent être récupérés en quantité importante et sous forme très pure dans la phase gazeuse des cultures, tout en faisant appel à une voie enzymatique utilisant l’énergie lumineuse (photoenzyme). Article rédigé par Georges Simmonds pour RT Flash CEA | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Montée du niveau des océans, petites îles menacées de submersion, glaciers qui disparaissent... Certains des impacts dévastateurs du changement climatique sont déjà "irréversibles", a averti mercredi 25 septembre le Groupe d'experts intergouvernemental sur l'évolution du climat (Giec). Rédigé par une centaine de chercheurs, le rapport est sans appel : les océans et les zones gelées dépérissent à grande vitesse, menaçant des pans entiers de l'Humanité. Ce réchauffement accéléré aura également de graves conséquences pour la France. En France, de sont 377.000 personnes qui seraient menacées sur les côtes françaises. Actuellement, les dommages prévisibles des inondations côtières en Europe sont estimés à 1,25 milliard d'euros par an, dont environ 10 % en France, mais ce nombre pourrait tripler d'ici 2100, commente la fondation European Climate. La pêche française pourrait également être durement impactée alors que les poissons migrent vers des eaux plus fraîches, loin des côtes françaises. « La température qui augmente déclenche des migrations vers l'hémisphère nord, à raison de 47 km par an pour le plancton et 27 pour les poissons », détaille pour le quotidien francilien Gilles Boeuf, président du conseil scientifique de l'Agence française pour la biodiversité. Le rapport confirme également que les glaciers alpins pourraient disparaître d'ici la fin du siècle si nous ne nous mobilisons pas d'avantage et précise que la neige devrait également se faire plus rare et arriver plus tard, notamment pour les stations de moyenne altitude. Au total, selon le rapport, plus d'un milliard de personnes vivront d'ici le milieu du siècle dans des zones côtières peu élevées particulièrement vulnérables aux inondations ou à d'autres événements météo extrêmes amplifiés par la montée du niveau de la mer et le dérèglement climatique. Et même dans un monde à +2°C, de nombreuses mégapoles et petites îles devraient être frappées d'ici 2050 au moins une fois par an par un événement extrême qui ne se produisait jusqu'alors que tous les cent ans. Article rédigé par Georges Simmonds pour RT Flash Orange | | | |
| Les tourbières représentent seulement 3 % de la surface terrestre, mais elles captent à elles seules un tiers du dioxyde de carbone piégé dans les sols. Il est donc capital de préserver ces milieux fragiles pour lutter contre le réchauffement climatique… À condition que celui-ci ne les menace pas. Pour mieux cerner ce risque, deux Français, dont Vincent Jassey, chercheur du CNRS au Laboratoire d'écologie fonctionnelle et environnement (CNRS/Université Toulouse III - Paul Sabatier/INP Toulouse), ont étudié l’assimilation de carbone par les deux principales variétés de mousse qui composent la tourbière du Forbonnet, à Frasne (Jura). Ils ont découvert qu’en cas de fortes chaleurs mais aussi de sécheresse, ces deux sphaignes avaient des sensibilités opposées : Sphagnum medium résiste à la sècheresse alors que la photosynthèse de Sphagnum fallax est affectée ; à l’inverse, par temps très chaud mais humide, Sphagnum fallax augmente sa photosynthèse, et donc l’assimilation de carbone, tandis que Sphagnum medium est affectée. Dans les deux cas, la tourbière subsiste donc. Ces résultats montrent que les tourbières pourraient résister aux futurs changements climatiques, à condition qu’elles ne soient pas perturbées. Faire de la conservation des tourbières une priorité aiderait donc à limiter les effets des changements climatiques dans le futur. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Des chercheurs du BIAM, l'Institut de Biosciences et Biotechnologies d'Aix-Marseille qui dépend du CEA, ont découvert un traitement révolutionnaire qui permet aux végétaux de survivre plus longtemps en cas de sécheresse, en augmentant considérablement leur résistance à une privation d’eau. Une sécheresse est un stress redoutable pour la plante, notamment parce que sa photosynthèse est perturbée. Le rayonnement solaire induit alors une forte production de dérivés réactifs de l’oxygène, produits nocifs qui corrodent les cellules. Pour les neutraliser, les végétaux fabriquent des antioxydants comme le bêta-carotène. Mais à partir d’un certain seuil, les produits de cette réaction deviennent un signal d’alerte pour les cellules. « Nous avons trouvé que l’un d’eux, l’acide bêta-cyclocitrique, induit alors la fabrication de centaines de protéines dans les cellules pour leur permettre de résister à la sécheresse », explique Michel Havaux. Une plante avertie en vaut deux, ont alors pensé les chercheurs. Quand ils ont ajouté cette petite molécule, l’acide bêta-cyclocitrique, à l’eau d’arrosage, ils ont observé un effet surprenant : toutes les plantes testées - arabette, tomate, poivron ou pensée sauvage - pouvaient ensuite survivre à une privation d’eau prolongée. « Et les tomates des plants prétraités étaient même plus grosses », commente, étonné, Michel Havaux. Dans le contexte du réchauffement planétaire actuel, d’intenses recherches ont lieu dans le monde pour améliorer la résistance des plantes cultivées au manque d’eau. « La méthode de choix consiste à sélectionner des variétés génétiques mieux adaptées », précise Brigitte Mauch-Mani. On peut aussi modifier le génome des plantes dans le but de réduire la quantité ou le fonctionnement de leurs stomates, minuscules pores à la surface des feuilles qui permettent l’évapotranspiration, ou d’augmenter la rétention d’eau par la synthèse accrue de certaines molécules. L’activation du programme de défense des plantes découvert par les chercheurs du Biam (Institut de biosciences et de biotechnologies d’Aix-Marseille), à Cadarache, offre un nouveau moyen de pallier le manque d’eau, même si son mécanisme reste à élucider en détail. Et il semble bien plus facile à mettre en œuvre que les autres méthodes. En effet, l’acide bêta-cyclocitrique, petite molécule soluble, agit rapidement par l’eau d’arrosage ou pulvérisation sur les feuilles. Produit normalement par les végétaux, ce qui le rend biodégradable, il ne devrait pas être toxique pour l’environnement, les animaux ou l’homme. Enfin, « comme il dérive directement du bêta-cyclocitral, produit déjà utilisé pour ses propriétés odorantes dans les industries cosmétique et alimentaire, il devrait être assez aisé à produire », note Michel Havaux. Son équipe a déposé un brevet et recherche désormais un industriel pour développer des applications agronomiques. Article rédigé par Georges Simmonds pour RT Flash iScience | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Originaire d’Afrique, le chikungunya porte bien son nom. Il signifie en langue makondée « l’Homme qui marche courbé », car les douleurs musculaires et articulaires sévères dont souffrent les patients les empêchent de se déplacer normalement et de mener leurs activités quotidiennes. Si les manifestations cliniques de la maladie sont bien décrites, les mécanismes permettant au virus d’infecter les cellules humaines et de se multiplier sont encore mal compris. Plusieurs travaux avaient déjà identifié certains facteurs des cellules hôtes impliqués dans la réplication du virus. Cependant, aucun n’avait réussi à expliquer pourquoi le virus cible les cellules musculaires et celles des articulations de manière préférentielle, et engendre ces signes cliniques. Mais une équipe de recherche associant l'Inserm, le CNRS, l'Université de Paris et l'Institut Pasteur, a montré que la protéine FHL1 est un facteur cellulaire clé pour la réplication et la pathogénèse du virus chikungunya. FHL1 est une molécule présente majoritairement dans les cellules musculaires et les fibroblastes, les cibles privilégiées du virus. En temps normal, FHL1 participe au fonctionnement du muscle sain, et serait détournée de cette fonction par le virus pour assurer sa réplication dans les cellules cibles. Pour conduire cette étude, l’équipe d’Ali Amara a effectué un criblage systématique du génome de cellules humaines par la technologie dite de CRISPR-Cas9 afin d’identifier les facteurs de l’hôte nécessaires à la réplication virale. Elle a ainsi isolé le gène codant pour la protéine FHL1. L’équipe a ensuite conduit une série d’expériences montrant l’incapacité du virus à infecter des cellules dont l’expression de FHL1 a été abolie. De plus, les chercheurs ont montré que le virus était incapable de se multiplier dans des cellules issues de patients souffrant d’une pathologie génétique rare, la dystrophie musculaire d’Emery Dreifuss. Chez ces malades, la pathologie musculaire dont ils souffrent résulte de mutations du gène FHL1 responsables de la dégradation de la protéine FHL1. Les chercheurs ont montré que les cellules de ces patients sont résistantes au virus. Enfin, les chercheurs ont effectué des expériences in vivo chez des souris dont le gène Fhl1 est invalidé. Ils ont montré que ces animaux sont totalement résistants à l’infection et ne développent pas de maladie, alors que le virus se multiplie et induit d’importantes lésions musculaires chez les souris exprimant une protéine FHL1 fonctionnelle. Ces observations démontrent que la protéine FHL1 joue un rôle clé dans la réplication et la pathogénèse du virus chikungunya. Le rôle précis de FHL1 dans l’infection virale n’est pas encore entièrement compris. Les chercheurs ont découvert que FHL1 interagit avec une protéine virale connue sous le nom de nsP3. C’est en se liant à celle-ci que FHL1 participe à la réplication du virus. « Nous voulons maintenant comprendre les détails moléculaires de cette interaction. La prochaine étape est de définir pourquoi FHL1 est si spécifique du virus chikungunya, et de déchiffrer au niveau moléculaire son mode d’action. La résolution de la structure moléculaire du complexe FHL1-nsP3 pourrait constituer une avancée majeure dans le développement d’antiviraux bloquant la réplication du virus », soulignent Ali Amara et Laurent Meertens, chercheurs Inserm responsables de l’étude. A l’heure actuelle, seuls des traitements symptomatiques sont disponibles pour les patients souffrant d’une infection par le virus chikungunya. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Les astrocytes, ces cellules du cerveau en forme d'étoile, jouent un rôle de tout premier plan dans la mémoire à long terme, expliquent ces scientifiques de l’Institut Salk (La Jolla, Californie). Longtemps considérés comme des acteurs secondaires du cerveau, les astrocytes sont essentiels à l'établissement de souvenirs durables. L'étude, publiée dans la revue GLIA, pourrait éclairer les thérapies des troubles dans lesquels la mémoire à long terme est altérée, tels que les lésions cérébrales traumatiques ou la démence. « Ces cellules font beaucoup plus qu’aider les neurones à maintenir leur activité », résume l’auteur principal, le professeur Terrence Sejnowski, responsable du laboratoire de neurobiologie de Salk : « Elles jouent un rôle essentiel dans la manière dont l'information est transmise et stockée dans le cerveau ». Ces neurones émettent des signaux électriques rapides pour communiquer dans le cerveau et libérer des neurotransmetteurs, et les astrocytes génèrent des signaux calciques et libèrent des substances appelées « gliotransmetteurs », dont certaines sont chimiquement similaires aux neurotransmetteurs. L’hypothèse aujourd’hui retenue est que les astrocytes apportent un soutien aux neurones les plus actifs, facilitent le transport des nutriments, éliminent les débris moléculaires et maintiennent les neurones en place et en bonne santé. Cependant, plus récemment, plusieurs recherches ont suggéré que les astrocytes pourraient jouer un rôle bien plus actif dans le cerveau en particulier par la libération de ces gliotransmetteurs. En 2014, l’équipe du Salk avait montré que désactiver la libération de gliotransmetteurs dans les astrocytes annule un type de rythme électrique appelé oscillation gamma, important pour les fonctions cognitives. Dans cette étude, lorsque les chercheurs testent les capacités d'apprentissage et de mémorisation de souris aux astrocytes désactivés, ils constatent des déficits « cognitifs ». En pratique, l'équipe s'est concentrée sur la mémoire à long terme de souris dont elle avait préalablement perturbé les astrocytes, par manipulation génétique. Précisément, les astrocytes ont été privés d’un type particulier de récepteur sur lequel ils s'appuient normalement pour libérer le calcium afin de communiquer. Les chercheurs constatent alors que les souris dépourvues de ce type de récepteur perdent progressivement une partie de leur mémoire de long terme : elles font 2 fois moins bien au test du labyrinthe. Alors que les souris avec astrocytes non modifiés ont « définitivement » pu consolider leur mémoire et font beaucoup mieux au test du labyrinthe, les souris modifiées voient leurs capacités cognitives se dégrader. C’est la première fois que des défauts dans les astrocytes sont corrélés à des déficits de consolidation de la mémoire à long terme. Article rédigé par Georges Simmonds pour RT Flash Wiley | | | |
| En 2018, le cancer du sein était le cancer le plus répandu chez les femmes à l’échelle mondiale, représentant environ un quart de tous les cancers déclarés. Les métastases sont l’un des principaux problèmes de tous types de cancers. Celles du cancer du sein ciblent fréquemment le cerveau. La fréquence des métastases cérébrales du cancer du sein a amené les scientifiques à suspecter qu’il existait une raison sous-jacente expliquant pourquoi les cellules cancéreuses mammaires cherchaient à provoquer une croissance de la tumeur dans le cerveau. Découvrir cette raison pourrait permettre de limiter les métastases cérébrales du cancer du sein, voire de les éviter. Des scientifiques de l’Institut suisse de recherche expérimentale sur le cancer (ISREC) de l’EPFL (Ecole Polytechnique Fédérale de Lausanne) ont découvert que ce processus impliquait le récepteur N-méthyl-D-aspartate (récepteur NMDA ou NMDAR), que l’on trouve sur les membranes cellulaires de neurones et qui joue un rôle dans la transmission d’impulsions nerveuses. Le NMDAR est activé par le glutamate, un acide aminé libéré par les neurones présynaptiques durant la transmission synaptique de ces impulsions. Par le passé, le groupe de l’ISREC a montré que la signalisation du NMDAR stimulé par le glutamate favorise la croissance invasive des tumeurs neuroendocrines et pancréatiques ductulaires, et que ce circuit de signalisation neuronal assimilé s’accompagne généralement d’un mauvais pronostic de traitement pour un certain nombre de types de cancers. Lorsque les scientifiques ont commencé à chercher les candidats à l’origine des métastases cérébrales du cancer du sein, le NMDAR se trouvait en tête de liste. Leur recherche a porté ses fruits. Les scientifiques ont cultivé en laboratoire des cellules métastatiques cérébrales du cancer du sein afin d’étudier leur relation avec le NMDAR. Comme on pouvait s’y attendre, ils ont découvert que ces cellules intégraient l’ensemble du système par lequel le NMDAR transmet ses effets aux neurones, ce que les biologistes appellent une « voie de signalisation ». Il semble donc que l’activation du NMDAR soit l’origine clé des métastases vers le cerveau. Bien que certaines cellules cancéreuses sécrètent suffisamment de glutamate pour activer elles-mêmes le NMDAR, l’étude en question a mis en évidence que les cellules du cancer du sein n’en sont pas capables à elles seules. Comment parviennent-elles donc à activer le récepteur NMDA ? Les chercheurs ont fait une découverte capitale : les cellules du cancer du sein forment de « fausses » synapses avec les neurones qui sécrètent normalement du glutamate, qui sert de neurotransmetteur. La synapse est dite « pseudo-tripartite » car elle ressemble à une synapse tripartite entre deux neurones et les cellules gliales de soutien non neuronales (p. ex. les astrocytes). Une fois que les synapses sont formées, les neurones fournissent du glutamate en quantité aux cellules du cancer du sein et le récepteur NMDA s’active, permettant ce que les auteurs appellent une « logique insidieuse pour les métastases cérébrales ». « La découverte de ce mécanisme remarquable pour alimenter la croissance des tumeurs métastatiques dans le cerveau vient enrichir une base de connaissances croissante sur les paramètres des métastases. Nous espérons qu’elle sera applicable à la prévention et à la thérapie », déclare Douglas Hanahan, le directeur de l'ISREC qui a dirigé la recherche. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| L'entreprise Thales Alenia Space, chargée par l’Agence spatiale européenne (ESA) de la construction du télescope spatial Euclid, a présenté le « modèle thermo-structurel » de l’engin, en cours de finalisation dans ses locaux cannois. Il s’agit là d’une maquette taille réelle qui doit permettre de valider son design en subissant toute une batterie de tests poussés. Débuté en 2011, le projet Euclid réunit 16 pays, 225 laboratoires, quelque 1500 scientifiques et environ 80 entreprises, dont Airbus, Boostec, Reosc (groupe Safran), Saft (groupe Total) et Thales Alenia Space pour la France (coentreprise entre Thales 67 % et Leonardo 33 %). La facture du projet dépasse déjà le milliard d’euros. “C’est le télescope le plus avancé jamais développé par l’Europe”, déclare Giuseppe Racca, chef du projet Euclid pour l’Agence spatiale européenne (ESA). Le lancement à bord d’une fusée Soyouz ou d’une Ariane 62 est ainsi toujours prévu pour mi-2022 à Kourou, en Guyane. Le télescope Euclid s’annonce comme l’un des instruments les plus puissants de la décennie à venir, avec le très attendu James Webb Space Telescope (JWST) de la Nasa. Ses concepteurs pensent qu’il pourrait révolutionner la cosmologie, c’est-à-dire notre compréhension de l’Univers et de ses origines. Dans l’état actuel de nos connaissances, l’Univers est né pour une raison inconnue d’un point de densité infinie il y a 13,8 milliards d’années. Cet événement étrange, communément appelé « big bang », a donné lieu à un univers en expansion accélérée sous l’effet d’une mystérieuse « énergie noire ». Sa cohésion est, quant à elle, assurée par une « matière noire » tout aussi énigmatique, qui forme, selon les modèles, de gigantesques filaments sur lesquels les galaxies (dont chacune rassemble des milliards d’étoiles, à l’image de notre Voie lactée) viennent se coller comme sur du papier tue-mouches. « Lorsqu’on y réfléchit, c’est très étrange », souligne Anne Ealet, directrice de l’Institut de physique des deux infinis de Lyon (INP2I) du CNRS, qui a consacré une grande partie de sa carrière sur la définition des spécifications d’Euclid. « On a introduit deux paramètres ad hoc, qu’on a appelés matière noire et énergie noire, et d’un coup, tout marchait ». Mais l’Univers pourrait ne pas être aussi homogène dans l’espace et dans le temps qu’on l’imagine par exemple. Ou bien les lois de la gravitation pourraient ne plus être valables sur de très grandes échelles. Mais il se pourrait aussi évidemment que matière noire et énergie noire correspondent à des réalités physiques qu’il nous reste à découvrir. L’objectif d’Euclid est justement d’apporter des données afin de pouvoir discriminer les théories existantes, voire en faire émerger de nouvelles. Le télescope va pour cela effectuer le relevé de l’Univers le plus complet à ce jour, en déterminant la position et la distance de plus de 2 milliards de galaxies, remontant jusqu’à 10 milliards d’années dans le passé (pour mémoire, l’Univers est âgé de 13,8 milliards d’années). Il donnera aussi le « spectre » infrarouge de 10 millions d’entre elles, une sorte de carte d’identité lumineuse extrêmement riche d’informations. Cela devrait ainsi permettre de cartographier cette sorte de toile d’araignée de matière noire qui structure l’Univers et d’étudier comment elle s’est déformée et a évolué avec le temps. Article rédigé par Georges Simmonds pour RT Flash L'Usine Nouvelle | | | |
| Les hommes ayant des problèmes de fertilité ont statistiquement plus de risques de développer un cancer de la prostate que les autres, selon une étude suédoise, qui renforce l'hypothèse selon laquelle ces deux pathologies pourraient avoir des causes communes. Les chercheurs ont étudié les hommes suédois devenus pères pour la première fois entre 1994 et 2014 et identifié ceux qui ont été confrontés à un diagnostic de cancer jusqu'à 20 ans après cette naissance. Ils en ont conclu que ceux qui avaient eu recours à des techniques d'assistance médicale à la reproduction "avaient un risque significativement plus élevé de cancer de la prostate que ceux qui étaient devenus pères de façon naturelle". Parmi ce dernier groupe, 0,28 % se sont vu diagnostiquer un cancer de la prostate, contre 0,37 % chez ceux qui ont procédé à une fécondation in vitro et 0,42 % chez les hommes ayant bénéficié d'une ICSI (injection directe d'un spermatozoïde dans l'ovule), soit une augmentation de risque de 30 % à 60 %. Cette dernière technique, "utilisée pour les hommes avec les formes les plus sévères d'infertilité" (des anomalies des spermatozoïdes qui les empêchent de féconder l'ovocyte), est par ailleurs associée à un risque presque doublé de cancer précoce (diagnostiqué avant 55 ans), souligne l'étude. Ses auteurs en concluent que cette catégorie d'hommes constitue une population à risque et devrait bénéficier d'un dépistage précoce du cancer de la prostate et d'une surveillance sur le long terme. Article rédigé par Georges Simmonds pour RT Flash BMJ | | | |
| Les études se succèdent pour documenter les effets néfastes de la pollution et de ses substances et microparticules toxiques sur la santé des enfants et des adultes. Ainsi l’exposition in utero à la pollution atmosphérique a déjà été corrélée à nombre de troubles métaboliques, respiratoires et cardiovasculaires mais aussi aux risques d’autisme et de troubles du comportement chez l’enfant. Ces 3 nouvelles études de chercheurs en biostatistique et épidémiologie de l'hôpital pour enfants de Cincinnati, à paraître dans la revue Environmental Health Perspectives, contribuent à la masse croissante de preuves selon lesquelles l'exposition à la pollution de l'air au début de la vie et durant l'enfance peut contribuer à la dépression, à l'anxiété et à d'autres problèmes de santé mentale à l'adolescence. Le constat est empirique à l'Hôpital de Cincinnati et les preuves scientifiques s'accumulent. L’auteur principal, le Docteur Ryan, appelle à des recherches supplémentaires non seulement pour reproduire ces résultats mais aussi décrypter les mécanismes sous-jacents de ces associations afin de pouvoir prévenir cette exacerbation des troubles psychiatriques chez les enfants. Un constat clinique empirique : une exacerbation mesurable 1 à 2 jours après une exposition à court terme à la pollution de l'air ambiant, comme en témoignent les personnels du service d'urgence de Cincinnati pour enfants. Au-delà de cet effet remarquable à court terme, l’étude révèle que les enfants vivant dans des quartiers défavorisés pourraient être plus sensibles aux effets de la pollution atmosphérique que d'autres enfants, en particulier pour les troubles anxieux et le risque de suicide. L’exposition à la pollution viendrait exacerber les troubles anxieux préexistants. De nouvelles preuves scientifiques : la première étude révèle une association entre les niveaux quotidiens de pollution de l'air extérieur et une augmentation des symptômes de troubles psychiatriques, tels que l'anxiété et le risque de suicide chez les enfants. Des résultats qui appellent à de nouvelles stratégies de prévention pour les enfants présentant de premiers symptômes psychiatriques. Les deux autres études montrent également une association entre l'exposition récente à la pollution de l'air et une anxiété généralisée plus élevée chez des enfants par ailleurs en bonne santé ; ces travaux montrent également une association significative entre l’exposition à la pollution automobile au début de la vie et au cours de l'enfance et le développement de la dépression et de troubles anxieux autodéclarés chez les enfants à l’âge de 12 ans. Cette masse croissante de preuves sur les effets psychiatriques de l'exposition à la pollution de l'air au début de la vie et dans l'enfance mérite des recherches supplémentaires, écrivent les auteurs qui espèrent pouvoir identifier des stratégies de prévention, autres que l’éloignement du domicile des zones de pollution. Article rédigé par Georges Simmonds pour RT Flash Santé Log | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|