| | | | | | | Edition du 07 Juillet 2023 |
| |
|
| Edito Demain, les avions devront être moins polluants : un formidable défi technologique et humain
Alors que s'ouvrait le 19 juin dernier, après 4 ans d'interruption, le plus important salon de l'aéronautique au monde, celui du Bourget, et que le trafic aérien mondial en 2023 devrait retrouver son volume d'avant la pandémie de Covid-19, l'avionneur américain Boeing, prévoit, comme son concurrent européen Airbus, un doublement du trafic aérien d'ici 2037 et un possible triplement d'ici 2050. En termes d'appareils en circulation, Boeing table sur 48.575 appareils qui seront en service en 2042 (Airbus en prévoit 40 850 en 2050), contre 24.500 l’année dernière. Si ces prévisions sont exactes, il va falloir construire, tous constructeurs confondus, 42.500 aéronefs d’ici trente ans, dont la moitié viendra remplacer les avions existants, et l’autre permettra de répondre à la hausse de la demande de transports aériens, qui devrait être de l'ordr e de 4 % par an au cours des 20 prochaines années... Le président de la République, Emmanuel Macron, a par ailleurs annoncé le 16 juin un vaste plan destiné à soutenir la transition vers l'avion propre, sobre et décarboné. L'état va tripler son effort sur la période 2024-2030, en apportant 300 millions d'euros par an, pour soutenir le développement d'un nouveau moteur plus économe en carburant ainsi que la conception d'avions plus légers. Parallèlement, l'État va investir 200 millions d'euros dans le développement des biocarburants innovants, avec l'objectif d'en produire 500 000 tonnes par an à l'horizon 2030. Jusqu’au début de ce siècle, les émissions de GES liées au transport aérien sont restées relativement modestes par rapport aux autres grands secteurs d'activités économiques, à commencer par les transports terrestres (9 gigatonnes de CO2 par an), la production mondiale d'électricité (13,2 gigatonnes de CO2 en 2022), l'industrie (7,6 gigatonnes par an, en intégrant la construction), ou l’agriculture (9,3 gigatonnes par an). Mais aujourd’hui, l’explosion du trafic aérien mondial fait que les émissions de GES liées au transport aérien ont été multipliées par sept depuis 1960 (bien que les moteurs d'avion soient quatre fois moins gourmands) et ont doublé en seulement vingt ans. Elles représentaient 2,5 % des émissions mondiales de CO2 en 2018, soit plus d'un milliard de tonnes (Voir étude), mais surtout, ces émissions directes cachent l'impact au moins aussi important des émissions indirectes produites par les avions, qu'il s'agisse des oxydes d'azote ou des fameuses traînées de condensation qui ont un effet considérable, on le sait à présent, sur le réchauffement climatique. Au final, le secteur de l'aviation civil pèse donc pour plus de 6 % dans le réchauffement climatique et la perspective d'un doublement possible des émissions de CO2 liées aux transports aériens d'ici 2037 est tout simplement incompatible avec le respect des Accords de Paris et le nouvel objectif européen de réduction de 55 % des émissions de CO2 dès 2030. Un accord pour atteindre la neutralité carbone en 2050 dans l’aviation civile mondiale a été conclu le 7 octobre dernier, sous l'égide de l’Organisation de l’Aviation civile internationale (OACI) – et de L’Association du transport aérien international (IATA), représentant les représentants des 193 États de l'ONU. Cet accord ambitieux vise rien moins que zéro émission de carbone d’ici 2050, ce qui suppose un gigantesque effort de 1 550 milliards de dollars d’investissements entre 2021 et 2050. Au niveau européen, la facture pourrait s'élever à 800 milliards d'euros, selon une étude allemande réalisée par YouGov. L'Association internationale du transport aérien (Iata) estime, dans son projet de "zéro émission nette" de CO2 pour le transport aérien à l'horizon 2050, que 450 milliards de litres de carburants verts seront nécessaires chaque année, à l'horizon 2050. Elle s'est donné pour objectif intermédiaire 30 milliards de litres en 2030... contre 300 millions de litres produits en 2022. De son côté, le Parlement et le Conseil européen ont convenu, en avril dernier, d’accroître l'utilisation de carburants durables dans le secteur de l’aviation, tels que les biocarburants avancés ou l’hydrogène. A partir de 2025, au moins 2 % des carburants d’aviation seront écologiques. Cette part augmentera tous les cinq ans : 6 % en 2030, 20 % en 2035, 34 % en 2040, 42 % en 2045 et 70 % en 2050. En outre, une proportion spécifique du mélange de carburan ts doit inclure des carburants de synthèse, tel que l’e-kérosène (1,2 % en 2030, 2 % en 2032, 5 % en 2035 et atteindre progressivement 35 % en 2050). Mais cette montée en puissance inexorable des SAF (Sustainable aviation fuel) – ou CAD "carburants durables d’aviation" en français, va devoir surmonter de nombreux obstacles techniques, industrielles et économiques. Ces carburants durables regroupent en effet des produits très différents. Les premiers sont les biocarburants, ou agrocarburants, qui doivent permettre de réduire de 80 % les gaz à effet de serre du secteur aérien. Ces biocarburants de première génération sont produits à partir de blé, de colza, de betterave à sucre ou d'huile de palme, et un fort accroissement de leur production semble très difficile car cela engendrerait des déforestations supplémentaires et des changements d'utilisation des sols au détriment de cultures vivrières. Les compagnies aériennes se tournent donc vers des biocarburants dits de deuxième génération, c'est-à-dire issus des déchets et des résidus forestiers et agricoles comme de la paille ou de l'huile de cuisson. Mais, là aussi, il sera très compliqué de trouver les ressources suffisantes en biomasse pour multiplier par dix les volumes de carburants produits, d'autant plus que la demande risque d'augmenter en parallèle dans d'autres secteurs, notamment l'automobile. Reste la troisième génération de carburants durables, les carburants de synthèse, fabriqués grâce à de l'hydrogène vert et du monoxyde de carbone (CO), qui émettent beaucoup moins de CO2 que le kérosène. Mais ils sont loin d'être parfaits, nécessitent d'énorme quantités d'électricité et rejettent d'autres polluants comme les oxydes d’azote (NOx). En outre, les technologies de production de ces carburants restent complexes et leur coût de fabrication est jusqu'à dix fois plus élevé que ceux du kérosène. En France, la startup Elyse Energy va investir un milliard d'euros dans la construction d'une raffinerie de carburant vert. Elle sera implantée sur l'ancien site gazier de Lacq, dans les Pyrénées-Atlantiques. Elle doit permettre de couvrir 20 % des besoins français en 2030. Ce consortium mené par Elyse Energy regroupe IFP Energies Nouvelles, Avril, Axens, le CEA, TotalEnergies et Thyssenkrupp Uhde. Ce carburant durable pour avion (CAD) sera produit grâce à la technologie innovante BioTFuel qui combine la conversion de la biomasse par synthèse Fischer-Tropsch et l'injection d'hydrogène externe pour améliorer son rendement bas carbone, doublant ainsi la quantité d'e-kérosène obtenu à partir d’une même quantité de déchets végétaux (quatre tonnes de déchets végétaux pour une tonne de biocarburant). Ce remarquable proc&eacut e;dé permet de valoriser avec une efficacité sans précédent les résidus agricoles et forestiers, sans concurrence avec les usages alimentaires. C'est dans ce contexte incertain que le constructeur ZeroAvia a annoncé, à l’occasion du salon du Bourget, sa stratégie de développement pour la propulsion hydrogène-électrique à zéro émission, dans le cadre du transport régional. ZeroAvia table sur son avion CRJ hydrogène-électrique, qui sera équipé de deux réacteurs et pourrait accueillir jusqu'à 60 passagers avec un rayon d'action de 1000 km, couvrant plus de 80 % des vols actuels. Selon ZeroAvia, son concept réduirait considérablement les coûts d'exploitation grâce à l'utilisation de l'hydrogène et à la réduction des coûts de maintenance, ce qui permettrait d'ouvrir de nouveaux itinéraires et d'augmenter le nombre de vols sur les itinéraires existants afin d'accroître le nombre de passagers. Plus de 1 400 avions de la série C RJ pourraient être convertis pour voler avec le moteur ZA2000. VoltAero, a annoncé, à l’occasion du salon du Bourget, le lancement d'un démonstrateur d'avion à hydrogène sur la base du Cassio 330, un petit avion hybride électrique de cinq places, équipé d'un moteur fourni par Kawasaki Motors. L'avion embarque de l'hydrogène liquide cryogénique à - 253 degrés, qui sera injecté directement dans le moteur. Cet avion est le seul, en Europe, à décoller et atterrir de manière "tout électrique". La start-up prévoit d'assembler le Cassio 330 dans une nouvelle usine située sur l'aérodrome de Rochefort (Charente-Maritime). Cette gamme Cassio comptera également deux autres avions plus puissants : le Cassio 480 de six places et le Cassio 600 de douze places. Cette famille d'avions à structure légère en aluminium pourra voler à 330 km/heure, jusqu'à 3,5 heures, soit un r ayon d'action de 1200 km. Et aura la capacité de franchir 1800 km avec l'ajout d'un réservoir additionnel pour réaliser des vols moyen-courrier. Ces appareils comptent bien s'imposer pour les vols commerciaux régionaux, mais aussi dans le transport de fret ou l'évacuation sanitaire. Le géant européen Airbus est lui aussi à la croisée des chemins et vient d'opter pour une stratégie audacieuse : il va lancer d'ici 2030 à la fois un avion à hydrogène et le successeur de la famille A320. « Les appareils qui entrent aujourd’hui en service et les futurs avions à hydrogène ne suffiront pas à atteindre la neutralité carbone en 2050 », souligne Guillaume Faury, le président exécutif d’Airbus. Airbus parie donc sur une nouvelle génération d’avions, qui entrera en service entre 2035 et 2040, avec une réduction de la consommation de carburant pouvant aller jusqu'à 40 %. Airbus travaille d’arrache-pied sur le moteur non caréné à hélices contrarotatives porté par CFM International (société commune entre Safran et General Electric) et est également impliqué dans le projet eXtra Performance Wing, qui s'inspire du biomimétisme et vise une voilure capable de s’adapter en temps réel aux conditions météorologiques. L’avionneur européen a dévoilé le 20 juin, à l’occasion du salon aéronautique du Bourget, des avancées présentées comme décisives dans la mise au point de son futur avion à hydrogène. Les ingénieurs d’Airbus sont parvenus à faire fonctionner au sol une pile à combustible d’une puissance de 1,2 MW, dans le centre d’essai d'Ottobrunn, près de Munich. « C’est la pile à combustible la plus puiss ante jamais mise au point pour l’aéronautique », précise Sabine Klauke, directrice de l’aviation d’Airbus. Avec 6 piles à combustibles de 1,2 MW, associées à autant de moteurs électriques, Airbus se voit conforter dans sa volonté de développer un appareil à hydrogène d’une centaine de places, d’ici la fin de la décennie. Par ailleurs, il y a quelques semaines, Airbus ArianeGroup et Safran, associés au sein du projet HyPERION, ont réalisé avec succès le test d’un nouveau mode de conditionnement de l’hydrogène, permettant d’alimenter des motopropulseurs d’avions. Les experts de l’Onera, le centre français d’études aérospatiales, ont également présenté récemment leur vision de l’avion de demain à travers le concept Gullhyver. La traînée induite d’un avion étant inversement proportionnelle à l’allongement de ses ailes, l'Onera travaille sur un concept d'appareil dont les ailes seraient très longues (20 fois plus longues que larges, contre 11 fois plus longues que larges sur l'A 320). Pour réduire encore davantage la consommation de carburant, la traction du moteur sera assurée par de grandes hélices non carénées pour réduire les frottements de l’air. L’Onera a estimé qu’un avion répondant au concept Gullhyver pourrait embarquer de l’ordre de 200 passagers pour des vols de 7400 km. Une récente étude de l'ONG Transport et Environnement montre également que le déploiement de l'avion à hydrogène est envisageable et pourrait être rentable d'ici 2035, à condition de créer toutefois un environnement politique, économique et fiscal favorable. Pour cette ONG, il convient notamment de taxer le kérosène fossile à hauteur de 0,37 euro par litre, conformément à la proposition de directive de la Commission européenne. Avec une telle taxe, faire voler un avion à hydrogène sur des vols intra-européens coûterait 2 % de moins que les avions à kérosène fossile en 2035. Au contraire, en l’absence de cette taxe, l’avion à hydrogène entraînerait un surcoût de 8 % (Voir Transport & Environnement). Selon un nouveau rapport du cabinet américain McKinsey, les avions à hydrogène pourraient représenter 38 % de la flotte d'ici à 2050, soit 34 % des besoins énergétiques globaux du secteur (Voir McKinsey & Company). Mais les plates-formes aéroportuaires devront effectuer de très gros investissements tant dans les infrastructures de distribution de l’hydrogène que dans les installations de production d’électricité verte destinées à alimenter les avions à batteries. McKinsey projette qu’un gros tiers des aéronefs pourraient, dès 2050, être alimentés à l’hydrogène ; il souligne néanmoins que les obstacles à lever sont nombreux. En effet, si la plupart des aéroports disposent d'un espace suffisant pour la liquéfaction et le stockage de l'hydrogène, il n'en va pas de même quant à leur capacité de produire l'énergie propre nécessaire à l'alimentation des avions par des batteries électriques et de l'hydrogène. En effet, la propulsion alternative (électrique ou hydrogène) pourrait nécessiter jusqu'à 1.700 TWh d'énergie propre d'ici à 2050, au niveau mondial, ce qui représente pas moins de 5 % de la consommation mondiale d'électricité prévue en 2050, ou encore trois fois la consommation annuelle de la France... Environ 90 % de l'énergie seraient utilisés pour les avions à hydrogène, tandis que seulement 10 % seraient employés pour alimenter les différentes catégories d'avions électriques. Pour l'aéroport de Paris, il faudrait environ 5.800 hectares de panneaux solaires pour produire suffisamment d'électricité pour répondre à ses besoins, une superficie qui dépasse largement celle de l'aéroport lui-même, qui occupe aujourd'hui 3.300 hectares. Au final, on estime que le passage à la propulsion électrique ou hydrogène de l’aviation nécessitera un investissement de 1.700 milliards d’euros (4 milliards pour le seul aéroport de Choisy-le-Roi de Gaulle) sur l'ensemble de la chaîne de valeur d'ici à 2050. Face à une telle transition technologique et économique, les aéroports devront nouer des partenariats avec d’autres opérateurs dans le domaine des énergies propres. De manière à sécuriser sur le long terme leur approvisionnement en électricité et hydrogène. L Ademe considère pour sa part que les émissions de CO2 des vols au départ de la France peuvent être réduites d'environ 75 % d'ici 2050 en mobilisant trois leviers majeurs : l'amélioration de l'efficacité énergétique des avions ; le recours aux carburants durables et la réduction du trafic de 23 % par rapport à 2019. L'Ademe souligne que ce dernier levier, celui du "rationnement" des vols commerciaux, présente le grand avantage de produire rapidement ses effets, contrairement aux autres leviers technologiques et logistiques. Concrètement, cette réduction du trafic aérien prendrait la forme d'un plafonnement du nombre de vols, comme viennent de le décider les autorités néerlandaises pour l'aéroport d'Amsterdam-Schiphol. À compter de novembre 2023, le trafic y sera limité à 400 000 vols par an, au lieu de 500 000 avant la crise du Covid. En France, il faut souligner que l'aéroport parisien d'Orly connaît déjà un plafonnement du nombre de vols à 250 000 par an pour limiter ses nuisances sonores. Cette obligation, qui porterait sur une réduction, considérée comme économiquement et socialement acceptable, de l'ordre de 1 à 2 % par an du trafic aérien à compter de 2025, pourrait donc être étendue à tous les aéroports français. Et même en l’absence d’une réduction temporaire du trafic aérien m ondial, tous les experts s’accordent sur le fait que nous allons assister à une très forte régulation de la demande par le prix dans les années à venir. Confrontées à des dépenses considérables pour développer des appareils plus sobres, passer aux carburants de synthèse (qui resteront durablement plus chers que les carburants classiques), mais aussi s’acquitter de nouvelles taxes liées à leurs émissions de GES, les compagnies aériennes, pour pouvoir tout simplement rester rentables, vont devoir augmenter sensiblement le prix de leurs billets. Ce rattrapage inévitable a d’ailleurs déjà commencé, avec une augmentation moyenne sur un an en France de 13, 5 % du prix du billet pour les vols long courrier et de 17 % pour les vols intérieurs…Avec un billet d’avion qui coûtera au moins deux fois plus cher d’ici la fin de la décennie, on peut donc s’attendre à une contraction ou à une stabilisation de la demande. Toute la question est de savoir si cette régulation par les prix sera suffisante par rapport aux objectifs drastiques de réduction des émissions de CO2 de l’aviation mondiale… On le voit, l'aviation, née il y a 120 ans, va connaître au cours des vingt prochaines années, la plus grande mutation technologique, industrielle et économique de son histoire et devra s'adapter, quel qu'en soit le prix, aux nouvelles contraintes non négociables concernant la réduction drastique des émissions de CO2 et la lutte contre le réchauffement climatique. Dans cette équation complexe, qui comporte encore de nombreuses inconnues, il n'est pas exclu que les principaux pays développés soient amenés à planifier, pendant une période transitoire qui reste à définir, une réduction globale du trafic aérien mondial, afin que le fonctionnement du secteur aérien reste compatible avec l'objectif planétaire de réduction des trois quarts de nos émissions de CO2 d'ici 2050 qui, seul, pourra permettre de maintenir dans des limites accept ables pour notre espèce et notre civilisation les effets du changement climatique sans précédent en cours... René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | Des chercheurs de l’Université de l’Arizona, à Tucson, dirigés par Pierre Deymier, ont présenté un étonnant dispositif qui imite le comportement d’un qubit, mais à une échelle beaucoup plus grande. Pour cela, ils ont assemblé trois barres d’aluminium et ont utilisé des haut-parleurs pour créer des vibrations à une extrémité de l’assemblage. En ajustant les fréquences sonores, ils ont réussi à former des "morceaux" de son localisés dans les barres, qu’ils ont appelés "phi-bits". Ces phi-bits pourraient être utilisés pour encoder de l’information, tout comme les qubits. Leurs expériences ont été présentées lors d’une réunion de l’Acoustical Society of America à Chicago, dans l’Illinois. L’innovation majeure de cette approche est que ces phi-bits peuvent exister simultanément et ne sont pas indépendants les uns des autres, ce qui signifie qu’ils peuvent être forcés dans un état de superposition, tout comme les qubits. De plus, l’équipe a développé des méthodes pour effectuer des opérations simples permettant le calcul, comme passer l’état d’un phi-bit de 1 à 0, et a créé des états plus complexes qui partagent certaines propriétés avec les particules intriquées des systèmes quantiques. Bien que l’approche de Deymier et de son équipe ne remplace pas les ordinateurs quantiques, elle offre une nouvelle voie pour l’exploration et la compréhension de la mécanique quantique. En imitant certaines propriétés des qubits, ils ont créé un système qui pourrait servir de passerelle vers une meilleure compréhension de l’informatique quantique et de ses applications potentielles. L’acoustique, en tant que moyen d’imiter les propriétés quantiques, présente plusieurs avantages. Tout d’abord, elle est moins fragile que les systèmes quantiques "classiques", ce qui signifie qu’elle peut fonctionner dans des conditions plus variées et moins contrôlées. De plus, elle permet de réaliser des calculs analogues à ceux des ordinateurs quantiques à température ambiante et sur de longues périodes de cohérence. Cela pourrait ouvrir la voie à des applications pratiques de l’informatique quantique dans des environnements moins contrôlés. Cependant, il est important de souligner que cette approche n’est encore qu’à ses débuts. Comme le souligne Deymier, « nous avons beaucoup de flexibilité dans ce que nous pouvons faire ici. Et c’est un système tellement nouveau que nous n’avons pas encore découvert ses limites ». Il est donc essentiel de continuer à explorer et à tester ce système pour comprendre pleinement son potentiel et ses limites. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Le groupe allemand Krausgruppe est en train de construire le plus grand bâtiment imprimé en 3D d’Europe sur l’îlot 5 de la zone de reconversion Campbell Heidelberg en Allemagne. En l’espace de quelques semaines, un bâtiment sera construit à partir de matériaux 100 % recyclables. Une fois achevé, le bâtiment mesurera 55 mètres de long, 11 mètres de large et 9 mètres de haut, et abritera un centre de données. Le travail de construction est réalisé non pas par des humains, mais par un gigantesque robot qui imprime des couches de béton superposables les unes sur les autres. Dans le monde de la construction, Heidelberg Materials fait des vagues avec sa technologie innovante de béton imprimé en 3D. Le matériau, qui est à 100 % recyclable, peut être déconstruit et séparé en ses composants de base, comme le sable, le gravier et la pâte de ciment. « Nous sommes heureux de participer à ce projet innovant et de poursuivre le développement de l’impression 3D du béton en tant que méthode de construction particulièrement économe en ressources avec nos partenaires », a indiqué dans un communiqué le Dr Nicola Kimm, directeur du développement durable chez Heidelberg Materials. « Ensemble, nous montrons que la durabilité et la numérisation vont de pair ». Mais ce n’est pas tout ce qui distingue cette technologie. L’esthétique architecturale qu’elle permet est également saisissante. Les formes ondulantes produites par l’impression en 3D donnent naissance à des bâtiments d’une dimension et d’une beauté inédites. De plus, le béton imprimé en 3D présente des avantages écologiques significatifs. Il contient un liant qui réduit les émissions de CO2 d’environ 55 % par rapport à un ciment Portland pur. Grâce à une planification de conception ciblée, ce matériau peut être utilisé de manière plus efficace. Le matériau est facile à extraire et présente d’excellentes propriétés d’extrusion, tout en offrant une résistance de forme élevée lors de l’impression. Le promoteur a affirmé que la technologie d’impression 3D pourrait permettre de nouvelles conceptions qui ne sont pas réalisables avec les techniques actuelles, mais elle ne les remplacera pas entièrement. « C’est très innovant. À une étape ultérieure, il est imaginable qu’il n’y ait qu’une seule personne sur le chantier pour s’assurer que rien ne va de travers », a indiqué Hans-Jörg Klaus. Article rédigé par Georges Simmonds pour RT Flash Enerzine | | | |
| Depuis un an et demi, Carreta sillonne le quartier Antigone à Montpellier. C'est un droïde compact mais capable de transporter 300 kilos à la vitesse d'un homme qui marche, un véhicule automatisé 100 % électrique dédié à la logistique urbaine. Sur Carreta, on trouve des capteurs électroniques 3D, des caméras stéréoscopiques, des caméras couleurs, des 3D actives, des capteurs ultrasons et à l'intérieur une centrale inertielle, un GPS et des ordinateurs qui calculent tout pour lui permettre de percevoir l'environnement, les gens, les vélos et de se localiser sur les routes virtuelles sur la cartographie qu'on lui a créée. La Poste va dans quelques jours lancer des droïdes dans les rues de Montpellier. C'est une première en France. Ce véhicule automatique 100 % électrique et autonome, créé par une start-up du Lot, est testé depuis 18 mois pour faciliter la livraison de colis et du courrier. L'engin robot aide le facteur dans sa tâche. L'agent peut y déposer ou y prendre une partie de sa tournée. Un gain de sécurité et surtout une pénibilité réduite. « Cela me permet d'avoir moins de poids sur le vélo et d'avoir moins de risques de vols car c'est une machine sécurisée ». Pendant l'expérimentation, La Poste a pointé les secteurs à améliorer. Et surtout, elle a observé la réaction des habitants du quartier. « Nous avons mené une étude avec l'Université de Montpellier. Le retour est assez positif. Toutefois, les gens soulignaient le fait que le robot ne devait pas prendre la place du facteur. Ce qui n'est pas le cas justement » confirme Jean-Louis Carrasco, directeur logistique urbaine La Poste. Ces jours-ci, Carreta doit passer à la vitesse supérieure. Le droïde sera expérimenté dans le quartier de l'Ecusson et ses 14 kilomètres de ruelles tortueuses et très fréquentées. Un sacré test. Article rédigé par Georges Simmonds pour RT Flash France 3 | | ^ Haut | |
|
| | | Une équipe internationale pilotée par des scientifiques de l'Institut européen des membranes (CNRS/ENSC Montpellier/Université de Montpellier) a mis au point une stratégie pour convertir directement le CO2 en isopropanol par un procédé électrocatalytique utilisant une électrode faite d’un nouvel alliage de cuivre et d’argent. La réduction électrochimique du CO2 en hydrocarbures à l'aide d'énergies renouvelables comme l'énergie solaire est une technologie pertinente pour fermer le cycle du carbone via la conversion du CO2 en précurseurs chimiques ou en carburants. Ces composés multicarbonés (possédant un nombre de carbones supérieur à deux, notés C2+) ont une valeur marchande élevée et possèdent des densités énergétiques supérieures. Dans ce domaine, une partie des efforts se concentre sur l'amélioration de la sélectivité de la réaction pour produire des molécules possédant un nombre d’atomes de carbone C2+ à partir de CO2. Alors que la transformation directe du CO2 en produits C1 et C2 a réalisé des progrès significatifs au cours des dernières années, la formation de molécules à plus de deux carbones comme l’isopropanol pourtant couramment utilisé reste toujours un défi. En jouant sur la concentration de CO2 au-dessus de la limite de saturation dans un électrolyte aqueux, les scientifiques de l’Institut européen des membranes (CNRS/ENSC Montpellier/Université de Montpellier) ont développé une nouvelle méthode de co-électrodéposition en utilisant une électrode catalytique qui se présente sous forme d’un alliage de cuivre et d’argent. En opérant sous 10 bar de CO2, cet alliage permet d’atteindre des performances élevées pour la production d’isopropanol (efficacité de 56,7 % et densité de courant spécifique de ~ 59 mA cm-2 (Fig. b)). Ces résultats, qui montrent une amélioration de ≈ 400% par rapport à la meilleure valeur jusqu’alors rapportée pour la conversion directe du CO2 en C3, ouvrent de nouvelles perspectives pour la production contrôlée de produits multicarbonés, directement à partir du CO2. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Les piles à combustible restent sensibles à quelques facteurs susceptibles de réduire leur durabilité. C’est notamment le cas de celles embarquées à bord des voitures à hydrogène où le catalyseur de la cathode est régulièrement exposé à l’oxygène lors des phases de démarrage et d'arrêt. Pendant le fonctionnement normal du véhicule, les piles à combustible sont alimentées par un apport constant d'hydrogène à forte concentration, qui diminue temporairement lorsque la voiture est arrêtée ou démarrée (lorsque l'air extérieur se mélange à l'hydrogène dans les piles à combustible). Dès lors, une réaction involontaire de réduction de l'oxygène dans l'anode est déclenchée, ce qui entraîne des sauts de potentiel soudains e t la corrosion du carbone dans la cathode. Pour en limiter les effets, des chercheurs de l'Université des Sciences et Tecnologies de Pohang (Corée du Sud) ont expérimenté un catalyseur (Pt/TiO2), composé de platine (Pt) déposé sur du dioxyde de titane (TiO2). Les premiers tests révèlent que celui-ci stoppe efficacement la corrosion, résultant du mécanisme d’oxydo-réduction pré-cité, dans les piles à combustible. Durant la phase de diminution de la concentration d’hydrogène, une expansion du dioxyde de titane sur le platine se produit, avec pour effet d'enfouir le platine sous la surface du catalyseur qui se transforme en isolant en raison de la faible conductivité du dioxyde de titane. Cet effet isolant entrave la capacité du catalyseur à conduire l'électricité, empêchant ainsi une réduction indésirable de l'oxygène, à l’origine de la dégradation de longévité des piles à combustible. De plus, en fonctionnement normal, la concentration d'hydrogène reste élevée. Dans ces conditions, le platine hautement conducteur est exposé à la surface du catalyseur et la réduction du dioxyde de titane se produit, ce qui favorise la mobilité de l'hydrogène à la surface du catalyseur. Ce phénomène, appelé “hydrogen spillover”, améliore le flux de courant et augmente la réaction d'oxydation de l'hydrogène. Les chercheurs à l’origine de cette expérimentation estiment, compte tenu des essais qu’ils ont menés, que les piles à combustible utilisant le catalyseur Pt/TiO2 présenteraient une durabilité trois fois supérieure à celle des piles à combustible traditionnelles. Article rédigé par Georges Simmonds pour RT Flash H2 | | | |
| Au cours des sept décennies passées, la loi de Moore a été vérifiée, doublant le nombre de transistors sur une puce environ tous les deux ans. Les circuits sont devenus plus petits proportionnellement, mais la fin de cette évolution approche. « Nous avons atteint un point où les structures ne mesurent plus que 2 à 3 nanomètres, soit environ 10 atomes de diamètre, atteignant la limite de faisabilité », déclare Qing-Tai Zhao de l’Institut Peter Grünberg (PGI-9) du Forschungszentrum Jülich. Les chercheurs explorent depuis un certain temps des alternatives au silicium, le matériau clé utilisé dans l’industrie des semi-conducteurs. « L’objectif est de trouver un matériau ayant des propriétés électroniques plus avantageuses et permettant d’obtenir les mêmes performances avec des structures plus grandes », explique le professeur. Les recherches se concentrent en partie sur le germanium, qui était déjà utilisé au début de l’ère informatique. Les électrons se déplacent plus rapidement dans le germanium que dans le silicium, du moins en théorie. Qing-Tai Zhao et son équipe ont poussé l’innovation en incorporant des atomes d’étain au réseau cristallin du germanium. « Le système germanium-étain testé permet de surpasser les limites physiques de la technologie du silicium », explique Qing-Tai Zhao. Dans les expériences, le transistor germanium-étain a montré une mobilité des électrons 2,5 fois supérieure à celle d’un transistor en germanium pur. Un autre avantage de ce nouvel alliage est sa compatibilité avec le processus CMOS existant pour la fabrication des puces. Le germanium et l’étain appartiennent au même groupe principal que le silicium dans le tableau périodique. Ainsi, les transistors germanium-étain pourraient être intégrés directement dans les puces en silicium conventionnelles avec les lignes de production existantes. Outre les ordinateurs numériques traditionnels, les ordinateurs quantiques pourraient également bénéficier du transistor germanium-étain. Depuis un certain temps, l’intégration d’une partie de l’électronique de contrôle directement sur la puce quantique est recherchée. Ces puces fonctionnent à des températures proches du zéro absolu. Les mesures suggèrent qu’un transistor germanium-étain serait nettement plus performant dans ces conditions que ceux en silicium. « Le défi consiste à trouver un semi-conducteur dont la commutation reste très rapide avec de faibles tensions à des températures très basses », commente Qing-Tai Zhao. Pour le silicium, cette courbe de commutation s’aplatit en dessous de 50 kelvins. Les transistors nécessitent alors une tension élevée et donc une forte puissance, entraînant des défaillances des bits quantiques sensibles en raison de l’échauffement. « Le germanium-étain offre de meilleurs résultats à ces températures dans des mesures effectuées jusqu’à 12 kelvins, et il est espéré que ce matériau puisse être utilisé à des températures encore plus basses », précise encore Qing-Tai Zhao. De plus, le transistor germanium-étain représente un pas de plus vers la trans mission optique de données sur puce. La transmission d’informations par signaux lumineux est déjà la norme dans de nombreux réseaux de données, car elle est considérablement plus rapide et plus économe en énergie que le transfert de données par conducteurs électriques. Article rédigé par Georges Simmonds pour RT Flash Enerzine | | ^ Haut | |
|
| | | La NASA a mis au point une technologie laser pour transférer des données depuis l'Espace vers la Terre. Un tel système facilitera les échanges qui reposent pour l'instant toujours sur la technologie radio. C'est d'autant plus important que l'agence spatiale américaine prépare des vols spatiaux habités vers la Lune, puis l'installation d'une base, ce qui nécessitera une méthode de communication plus efficace qui pourra accepter davantage de données. Lors d'un premier essai réalisé en juin 2022, en utilisant le système TeraByte InfraRed Delivery (TBIRD), la vitesse de 100 Gb/savait été atteinte, une performance déjà impressionnante. Il n'aura toutefois pas fallu patienter très longtemps avant de voir ce record de vitesse tomber, puisque récemment la NASA est arrivée à 200 Gb/s, le débit le plus élevé jamais enregistré. « Le fait d'avoir atteint 100 Gb/s en juin était révolutionnaire, et maintenant nous avons doublé ce débit de données – cette capacité va changer la façon dont nous communiquons dans l'espace », a déclaré Beth Keer, responsable de la mission TBIRD au Goddard Space Flight Center de la NASA, avant d'ajouter, « imaginez la puissance des instruments scientifiques spatiaux lorsqu'ils pourront être conçus pour tirer pleinement parti des progrès réalisés en matière de vitesse et de sensibilité des détecteurs, ce qui permettra à l'intelligence artificielle d'exploiter d'énormes quantités de données. Les communications laser sont le chaînon manquant qui permettra les découvertes scientifiques du futur ». Article rédigé par Georges Simmonds pour RT Flash NASA | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Une étude réalisée par des chercheurs anglais de l’Université d'East Anglia montre à quel point il est important que les bébés entendent beaucoup de paroles dès leur naissance pour que leur cerveau se développe correctement. Pour étudier le lien entre le langage et le développement du cerveau des enfants, les chercheurs ont fait porter un petit appareil d'enregistrement à 163 bébés pendant trois jours. Ils ont ainsi capturé 6.208 heures de données linguistiques, y compris la parole d'adultes, les tournures de conversation et les mots prononcés par les bambins eux-mêmes. De plus, une IRM était réalisée sur les jeunes participants lorsqu’ils dormaient. Les chercheurs ont découvert que les enfants de deux ans et demi qui entendaient le plus de paroles quotidiennement avaient une quantité plus importante de myéline dans les zones cérébrales liées au langage. « La myéline est composée de protéines et de substances grasses et forme une couche isolante autour des nerfs dans le cerveau. Il rend les signaux cérébraux plus efficaces », explique le professeur John Spencer, auteur principal des travaux. « Imaginez que vous ayez un tuyau d'arrosage avec beaucoup de trous. La myéline correspondrait à envelopper le tuyau d'arrosage avec du ruban adhésif : elle isole les fibres, apportant plus de "signal" d'une zone du cerveau à la suivante », explique le professeur Spencer. Et pour lui, cette plus grande concentration de myéline favoriserait le développement d’un traitement du lan gage plus sophistiqué. Ce chercheur ajoute : « des travaux antérieurs ont montré une association similaire chez les enfants de quatre à six ans, mais nos découvertes poussent cette association beaucoup plus tôt dans le développement. En effet, nous avons même trouvé des liens entre l'entrée du langage et la structure cérébrale chez les nourrissons de six mois. Bien qu'il reste encore beaucoup à apprendre sur ces processus, le message est clair – « parlez à votre bébé, votre tout-petit, votre enfant. Non seulement, ils écoutent, mais votre apport linguistique façonne littéralement leur cerveau », ajoute le chercheur. Article rédigé par Georges Simmonds pour RT Flash University of East Anglia | | | |
| Parmi l’ensemble des personnes épileptiques, seules 60 à 70 % sont réceptives aux traitements, essentiellement médicamenteux, qui permettent de contrôler l’apparition de crises. À l’heure actuelle, le diagnostic de l’épilepsie nécessite plusieurs examens cliniques et un bilan biologique, complétés par des analyses plus invasives dans le cas où l’origine du syndrome épileptique ne serait pas identifiée. Une fois confirmé à l’aide d’outils d’imagerie et d’un électroencéphalogramme (EEG), le diagnostic final permet d’initier un traitement, qui passe dans un premier temps par des moyens médicamenteux. En cas de pharmaco-résistance, une intervention chirurgicale peut être envisagée. Pour cela, il est primordial d’identifier avec précision la zone du cerveau à l’origine des crises, que l’on appelle foyer épileptogène. Cette mission constitue la proposition centrale de la jeune entreprise Avrio MedTech, filiale du CNRS. Développé dans le cadre d’une thèse de doctorat menée par Ludovic Gardy entre l’ENAC et le CerCo, l’outil au cœur de cette startup permettra d’identifier précisément le foyer épileptogène à l’aide de biomarqueurs innovants. Lesquels biomarqueurs, sortes de "signaux spécifiques", seront décelables par une intelligence artificielle au sein des nombreuses données issues d’EEG intracrâniens. Baptisé Halyzia, cet algorithme basé sur un réseau de neurones artificiels pourrait permettre d’accélérer considérablement le traitement des données issues des EEG des patients. En effet, « lorsqu’il y a une incertitude sur la localisation du foyer épileptogène, les explorations invasives menées à l’aide d’électrodes intracérébrales génèrent des quantités colossales de données que les médecins doivent analyser à la main, ce qui peut prendre jusqu’à un an » explique Ludovic Gardy. L’algorithme d’intelligence artificielle développé par Avrio MedTech peut les traiter rapidement et de manière fiable. En s’intéressant notamment aux oscillations rapides (appelées "fast ripples"), observables lors de l’analyse des données d’un EEG intracrânien, l’équipe scientifique composée de Ludovic Gardy, Emmanuel Barbeau, directeur de recherche CNRS au CerCo et Christophe Hurter, chercheur à l’ENAC, estime qu’il serait possible d’aboutir plus rapidement à l’identification précise du foyer épileptogène. La zone identifiée comme étant à l’origine des crises serait ensuite soumise à la validation d’un professionnel de santé. L’ambition des scientifiques du CerCo et de l’ENAC est claire : « notre objectif à terme est que notre outil puisse être incorporé à l’hôpital, en fonctionnant en temps réel » martèle Ludovic Gardy. Pour ce faire, le dispositif développé par Avrio MedTech doit réunir un ensemble de validations médicales mais aussi techniques, pour la plupart en cours. Dans un premier temps, le nouveau biomarqueur analysé par l’outil de l’entreprise toulousaine doit encore faire l’objet de validations par la communauté scientifique, comme l’explique Ludovic Gardy : « la littérature montre que les fast ripples sont spécifiques au foyer épileptogène, contrairement aux autres biomarqueurs, mais nous devons encore déterminer si ce seul indicateur est suffisant ». Dans ce but, un projet hospitalier de recherche clinique (PHRC) porté par le Docteur Luc Valton, praticien hospitalier au CHU de Toulouse, s’intéresse aux apports concrets des fast ripples dans la prise en charge neurochirurgicale des épilepsies pharmaco-résistantes. Soutenu depuis 2023 par le CNRS dans le cadre de son programme d’accompagnement RISE3, le projet porté par l’entreprise toulousaine souhaite également s’appliquer aux biomarqueurs historiquement identifiés dans l’épilepsie – comme les pointes épileptiques intercritiques – afin de fournir un outil polyvalent au service des personnels hospitaliers. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Des chercheurs de la faculté de médecine de Saint Louis, aux États-Unis, ont montré que les transposons, également appelés "gènes sauteurs", pourraient servir de cible pour le repérage et l’élimination des tumeurs. Les transposons sont des séquences génétiques courtes et répétitives, qui dérivent souvent de virus devenus résidents de notre organisme, et qui sont capables de se copier dans d’autres régions de notre génome. Habituellement, ces éléments sont réduits au silence par des processus épigénétiques, c’est-à-dire des mécanismes qui altèrent l’expression des gènes, et ne sont donc pas "lus" par le système qui transcrit puis traduit les gènes en protéines. Or les biologistes savent depuis des années que les cancers ont en commun d’engendrer une « relaxation épigénétique globale » du génome, qui s’accompagne de l’activation de certains gènes normalement silencieux. Parmi eux, la réactivation des transposons est désormais considé rée comme un biomarqueur d’un état cancéreux. De précédents travaux ont déjà montré que les transposons, lorsqu’ils s’insèrent dans la séquence codante d’un autre gène, formeraient une région génétique chimérique, à partir de laquelle sont synthétisées des protéines normalement absentes du répertoire d’une cellule saine. Celles-ci, lorsqu’elles se retrouvent à la surface des cellules tumorales, seraient alors détectées par le système immunitaire comme des antigènes. En étudiant plus de 10 000 tumeurs provenant de 33 types de cancer différents, ces chercheurs ont pu démontrer que ces protéines produites sous l’influence des éléments transposables sont présentes à la surface de toutes les cellules tumorales étudiées, selon des combinaisons communes et spécifiques. Pour ce faire, les biologistes ont analysé des données publiques des ARN et protéines produits par ces tumeurs à l’aide d’outils bio-informatiques qui permettent de repérer des protéines hybrides contenant des morceaux issus de gènes et de transposons. Forts de leurs résultats, Ting Wang et son équipe estiment que l’élaboration d’un vaccin capable de cibler 10 à 20 de ces protéines hybrides offrirait une voie de traitement universel de tout type de cancer. Article rédigé par Georges Simmonds pour RT Flash Science Daily | | | |
| L’horloge biologique, ou circadienne, permet aux organismes de régler leur activité en fonction du cycle journalier. Elle repose sur l’action d’une horloge centrale, représentée par un groupe de cellules cérébrales, le noyau suprachiasmatique, qui synchronise les horloges circadiennes de tous les organes, appelées horloges périphériques. Jusqu’à présent, la synchronisation du cycle circadien chez les mammifères était vue comme un mécanisme à sens unique, sous le contrôle exclusif des noyaux suprachiasmatiques vers les horloges périphériques. Cependant, des scientifiques du CNRS, d’Université Paris Cité1 et de l’Université de Queensland, dans le cadre d’un projet collaboratif européen, viennent de montrer que le foie exerce aussi une influence sur les horloges périphériques. En étudiant une lignée de souris chimériques dont le foie est composé d’hépatocytes humains, ils ont en effet observé que ces animaux habituellement nocturnes présentaient un décalage de deux heures dans leur cycle journalier. Les souris s’activaient et commençaient à se nourrir deux heures avant la tombée de la nuit : elles étaient devenues en partie diurnes. Pour les chercheurs et chercheuses, ce décalage serait le résultat d’une prise de contrôle de l’horloge centrale de la souris par les cellules de foie humain présentes chez ce modèle animal chimérique. Elles seraient ainsi capables d’affecter les horloges périphériques des différents organes. Ces résultats suggèrent qu’une modification des rythmes du foie, par exemple lors de pathologies hépatiques telles que la cirrhose, pourrait affecter l’action de synchronisation de l’horloge centrale. Cela pourrait affecter à son tour l’ensemble de la physiologie circadienne, y compris le cycle veille/sommeil, et contribuer notamment à l’apparition de pathologies métaboliques. Cette découverte sous-tend également qu’une restauration des cycles perturbés du foie pourraient avoir des bénéfices sur tout l’organisme. Les mécanismes hormonaux ou nerveux de ce dialogue entre cerveau, foie et horloge circadienne restent néanmoins à identifier… Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Des chercheurs brésiliens de la FAPESP (Fundação de Amparo à Pesquisa do Estado de São Paulo) travaillent sur l’accès à des informations génétiques par l’analyse d’échantillons de sang et précisément d’analyser le matériel génétique contenu dans des vésicules extracellulaires sécrétées, entre autres tissus, par le tissu cérébral. Ces travaux confirment bien des corrélations entre des microARNs spécifiques contenus dans ces vésicules extracellulaires (VE) et certains troubles de la santé mentale. Il est clair que l'utilisation de simples échantillons sanguins pour étudier des maladies d'origine cérébrale est un défi, dans la mesure où la barrière hémato-encéphalique fait barrage à la plupart des agents circulant dans le sang. Cependant, les chercheurs de Sao Paulo montrent que ce n’est pas le cas des microARNs contenus dans les vésicules extracellulaires (VE), produites par la plupart des cellules du corps, y compris les neurones et d'autres cellules du système nerveux. Une première étude a été menée auprès de 116 participants à l’étude BHRCS (pour Brazilian High-Risk Cohort Study). L’équipe a donc analysé le matériel génétique contenu dans ces vésicules extracellulaires éventuellement sécrétées par le tissu cérébral. Les exosomes, le plus petit type d'EV, peuvent en effet traverser la barrière hémato-encéphalique qui protège le cerveau des agents pathogènes et des toxines. Les microARN (ou miARNs) sont de petits transcrits qui ciblent les ARN messagers et régulent l'expression de plusieurs gènes à la fois. Ils peuvent être détectés dans les biofluides et ont déjà été associés à des troubles mentaux, dont notamment la dépression, l'anxiété et le trouble déficitaire de l'attention/hyperactivité (TDAH). Ces exosomes ouvrent la voie à un diagnostic précoce et de nouveaux traitements. C’est bien le concept de Jessica Honorato Mauer, auteur principal, et de son équipe, pouvoir détecter des troubles cérébraux par analyse de sang : « si nous ne pouvons pas être absolument sûrs que les exosomes analysées proviennent du cerveau, nous savons qu'ils régulent l'expression des gènes dans plusieurs types de tissus et peuvent être impliqués dans des mécanismes qui augmentent le risque de troubles de santé mentale ». Deux échantillons sanguins ont été prélevés chez les participants à 2 points, espacés de 3 ans, au cours de l'adolescence et au début de l'âge adulte. Les VE ont été extraites du sérum sanguin et caractérisées. Les chercheurs ont ensuite séquencé des miARNs extraits des VE pour analyser leurs variations dans le temps à la recherche d'associations avec des troubles psychiatriques spécifiques. Dans le cadre de cette analyse longitudinale, les participants ont été répartis en 4 groupes en fonction du diagnostic et de la trajectoire du trouble : un groupe témoin comprenant des participants exempts de tout diagnostics aux 2 points d’analyse ; un groupe "incidence" comprenant les participants sans diagnostic au premier point, mais qui ont reçu un diagnostic de trouble mental lors de la deuxième analyse ;un groupe "en rémission" avec un diagnostic seulement lors de la première analyse ; un groupe « persistance » soit les participants ayant reçu un diagnostic aux 2 points. L’analyse a recherché des associations entre les miARNs et des troubles spécifiques au même moment, en comparant les miARNs de participants diagnostiqués avec une dépression, une anxiété ou un TDAH, à ceux de participants exempts de ces conditions. Cette analyse révèle de précieuses signatures : une expression de miR-328 régulée positivement chez les enfants atteints de TDAH par rapport à ceux exempts de trouble ; des miARN spécifiques associés à la dépression et à l'anxiété. Ces découvertes rendent possible à l'avenir de prédire, par l’analyse des miARN des exosomes, les troubles de santé mentale. En pratique, il sera possible d'évaluer le risque génétique d'un patient à la naissance, puis de suivre ce risque tout au long de la vie en surveillant par simple test sanguin , les changements intervenus dans les miARNs. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Outre son rôle anti-hémorragique, la vitamine K pourrait également prévenir le diabète, selon des chercheurs de l’Université de Montréal et de l’Institut de recherche clinique de Montréal (Canada). Ceux-ci ont, dans un premier temps, observé que les enzymes impliquées dans la gamma-carboxylation étaient également présentes en grande quantité dans les cellules bêta du pancréas. Ces dernières sont responsables de la production d’insuline, qui contrôle le taux de sucre dans le sang, autrement dit la glycémie. « On sait que le diabète est causé par une réduction du nombre de cellules bêta ou par leur incapacité à produire suffisamment d'insuline, d'où notre vif intérêt pour cette nouvelle découverte. Afin d'élucider le mécanisme cellulaire par lequel la vitamine K maintient la fonction des cellules bêta, il était essentiel de déterminer quelle protéine était ciblée par la gamma-carboxylation dans ces cellules », a déclaré Mathieu Ferron, auteur de l’étude et chercheur en biologie moléculaire. L’équipe canadienne a ensuite identifié une nouvelle protéine gamma-carboxylée, appelée ERGP. Cette protéine participe au maintien des niveaux physiologiques de calcium dans les cellules bêta, pour prévenir une perturbation de la sécrétion d’insuline. « Nous avons alors démontré que la vitamine K, par le biais de la gamma-carboxylation, est essentielle pour que la protéine ERGP puisse jouer son rôle », a indiqué Julie Lacombe, étudiante à l’Université de Montréal, qui a participé à ces travaux. Ces premiers résultats pourraient conduire au développement de nouveaux traitements pour prévenir le diabète, d’après les responsables de l’étude. Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| Une étude américaine a récemment observé un lien entre la santé du placenta et l’apparition de cette pathologie psychiatrique. Lors d’une grossesse, le placenta joue un rôle essentiel dans le développement du fœtus. Il permet notamment l’échange d’oxygène et de gaz carbonique entre le bébé et sa mère, l’élimination de déchets, l’échange de nutriments ainsi que la synthèse de certaines hormones. Au cours de cette recherche, les scientifiques de l’Institut Lieber, situé à Baltimore (États-Unis), ont identifié près de 139 gènes de risque spécifiques au placenta et à la schizophrénie. Ils ont également révélé que certains de ces gènes associés à la schizophrénie influencent une fonction vitale du placenta, q ui intervient dans les échanges de nutriments entre la mère et le bébé. Dans l’étude, les scientifiques ont également noté que « les gènes de risque de schizophrénie trouvés dans le placenta peuvent avoir une influence relativement plus forte sur l'héritabilité, c'est-à-dire la probabilité que la maladie soit héritée des ancêtres, que les gènes de risque identifiés dans le cerveau ». Ils ont également constaté des distinctions entre les gènes à risque placentaire en fonction du sexe du fœtus. Les processus inflammatoires dans le placenta pendant les grossesses d’enfants de sexe masculin semblent jouer un rôle central dans le risque d’apparition de la schizophrénie. Aux yeux des chercheurs, les premiers résultats de leur étude sont prometteurs. Ils pourraient permettre de développer des outils de diagnostic afin d’identifier les gènes de risque spécifiques au placenta et à la schizophrénie. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| La maladie de Parkinson est une maladie neurodégénérative progressive, caractérisée par la destruction de certains neurones du cerveau et par l’accumulation de protéines qui leurs sont toxiques. Elle est la deuxième maladie neurodégénérative la plus fréquente en France et, à ce jour, il n’existe pas de traitement curatif ; il est donc fondamental d’identifier des pistes de prévention. De précédentes études ont notamment montré que le risque de développer la maladie de Parkinson était réduit chez les personnes ayant une activité physique importante. Toutefois, le nombre limité de tels travaux impliquant des femmes n’a pas permis de confirmer cette association spécifiquement dans cette population. En outre, ces études présentaient en général un suivi relativement court des participants ne comprenant qu’une seule évaluation de l’activité physique, ce qui ne permettait pas de s’affranchir de certains biais et, en particulier, du biais dit "de causalité inverse". Ce biais se traduit de la façon suivante : des symptômes avant-coureurs de la maladie de Parkinson (constipation, troubles du sommeil, de l’odorat, troubles moteurs discrets…) peuvent être présents plusieurs années avant que la maladie ne soit diagnostiquée. La gêne qu’ils occasionnent pourrait conduire les personnes à modifier leurs comportements (comme, par exemple, leur niveau d’activité physique) en amont du diagnostic, ce qui est susceptible de fausser les analyses statistiques étudiant la relation entre ces comportements et le risque de développer la maladie. Une équipe de recherche dirigée par Alexis Elbaz, chercheur Inserm au sein du Centre de recherche en épidémiologie et santé des populations (Inserm/Université Paris-Saclay/UVSQ), s’est intéressée à l’impact de l’activité physique sur la survenue de la maladie de Parkinson chez les femmes de la cohorte E3N, au cours de 29 ans de suivi. Cette cohorte française regroupe près de 100 000 femmes suivies depuis 1990. Avec près de 1 200 femmes atteintes de la maladie de Parkinson identifiées en 2018, elle constitue à ce jour la plus grande cohorte prospective féminine au monde pour cette maladie. L’évolution de l’activité physique de chaque participante tout au long des 29 années de suivi a été estimée à partir des informations recueillies dans six questionnaires individuels remplis à différentes étapes du suivi. Les données obtenues ont permis de comparer la pratique d’activité physique avant le diagnostic chez les participantes atteintes de la maladie à celles des participantes de même âge et non malades. Afin de réduire le risque d’un biais de causalité inverse, résultant de l’influence possible des symptômes précurseurs de la maladie sur l’activité physique dans les années précédant le diagnostic, les scientifiques ont examiné l’impact de l’activité physique évaluée plus de 5, 10, 15 et 20 ans avant le diagnostic sur le risque de su rvenue de la maladie de Parkinson. Les chercheurs et chercheuses ont ainsi observé que plus les participantes avaient une activité physique importante, moins elles risquaient de développer la maladie de Parkinson et ce, même lorsque l’activité physique était évaluée plus de 20 ans avant le diagnostic. Les femmes les plus actives présentaient ainsi un risque réduit d’environ 25 % de développer la maladie par rapport aux moins actives. Les participantes atteintes par la maladie étaient globalement moins actives que les autres tout au long du suivi, y compris plus de 20 ans avant le diagnostic. Cet écart entre les femmes malades et non malades augmentait encore dans les 10 années précédant le diagnostic, ce qui suggère que les symptômes précurseurs survenus dans cet intervalle pourraient effectivement être responsables d’une baisse de l’activité physique chez les femmes qui développeront la maladie mais n’ont pas encore été diagnostiquées. « Ces résultats sont en faveur d’un effet protecteur chez les femmes de l’activité physique contre le risque de développer la maladie de Parkinson, et ce, même sur du très long terme », précise Berta Portugal, doctorante et première autrice de ces travaux. « Ils appuient l’ intérêt de la mise en place de programmes d’activité physique pour prévenir la maladie de Parkinson chez des personnes à risque et invitent à réaliser d’autres études afin de comprendre quel type d’activité et quel niveau d’intensité sont les plus bénéfiques », ajoute-elle. Article rédigé par Georges Simmonds pour RT Flash Inserm | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|