| | | | | | | Edition du 03 Septembre 2021 |
| |
|
| Edito Les dirigeables de nouvelle génération vont-ils révolutionner le transport aérien ?
Le premier concept de dirigeable, fait d’une coque rigide de 80 mètres de long et muni de trois hélices et d’un gouvernail, fut imaginé en 1784 par le militaire et mathématicien Français Jean-Baptiste Meusnier, et proposé à l’Académie des Sciences. Mais il ne fut jamais réalisé car il était trop en avance sur son temps. Il fallut attendre un siècle pour qu’en 1884, deux autres Français, Charles Renard et Arthur Constantin Krebs, tous deux militaires et ingénieurs de génie, construisent le premier dirigeable entièrement fonctionnel, qui était équipé d’une hélice à propulsion électrique de 9 chevaux, et pouvait se déplacer à la vitesse respectable de 24 kilomètres par heure. Une autre étape décisive fut franchie en 1900, avec le vol de 5 km (à 410 mètres d’altitude), au-dessus du lac de Constance, du premier dirigeable rigide, le LZ 1, conçu par le célèbre ingénieur allemand Ferdinand Von Zeppelin. En 1909, le LZ 6 devint le premier zeppelin à être utilisé pour le transport de passagers, mais l’âge d’or des dirigeables commença en 1928, avec la mise en service du fameux « Graf Zeppelin », qui, avec ses 236 mètres de long, était un véritable paquebot des airs et pouvait traverser l’Atlantique en trois jours, soit, à l’époque, deux fois plus vite qu’en bateau. Pendant 9 ans, ce dirigeable inégalé effectua 143 traversées de l'Atlantique, transportant 13 000 passagers. Mais cette brillante épopée se termina tragiquement par l’explo sion accidentelle de ce dirigeable rempli d’hydrogène, et la mort de 37 des 100 passagers de cet engin, alors que le Graf Zeppelin s’apprêtait à atterrir sur la base aérienne de Lakehurst, dans le New Jersey. Il fallut ensuite attendre 1997 pour voir à nouveau voler un grand dirigeable semi-rigide, le Zeppelin NT, qui est gonflé à l’hélium, mesure 75 mètres de long et est essentiellement utilisé pour des vols touristiques ou d’exploration. Ce dirigeable de nouvelle génération, dont sept exemplaires sont en service, peut voler à une vitesse maximale de 125 km/h, pour une autonomie de 900 km. Mais depuis les Accords de Paris de 2016 et la volonté nouvelle de la communauté internationale de parvenir à la neutralité carbone d’ici 2050, pour essayer de limiter à deux degrés le réchauffement climatique en cours, la nécessité de faire baisser plus rapidement les émissions de CO2 du secteur des transports (qui représentent au moins le quart des émissions globales, soit 15 gigatonnes par an) n’a cessé de gagner du terrain, à la fois dans les opinions publiques et dans les décisions politiques des Etats. En moins de cinq ans, une mutation technologique et économique majeure, que nous avons évoquée à plusieurs reprises, s’est enclenchée pour décarboner beaucoup plus vite la mobilité lourde (trains, bus, bateaux et avions), grâce à l’hydrogène et pour basculer vers la propulsion &eacu te;lectrique en matière de déplacements urbains, qu’ils soient particuliers ou collectifs. Reste qu’il sera plus difficile, à cause de contraintes techniques bien plus sévères, de décarboner rapidement le transport aérien qui a émis en 2019 (avant son effondrement ponctuel de 60 % dû à la pandémie) un milliard de tonnes dans l’atmosphère, soit 2,5 % des émissions humaines de CO2. Il va cependant falloir parvenir à réduire drastiquement les émissions de CO2 de ce secteur, d’autant plus que celui-ci va reprendre son irrésistible croissance : la plupart des experts prévoient en effet un doublement du nombre d’appareils et de passagers transportés par avion d’ici 2040. Quant au développement du fret aérien, il est encore plus spectaculaire puisque, selon la Banque mondiale, il aurait été multiplié par dix depuis 40 ans, pour atteindre 221 milliards de tonnes-kilomètres transport&eac ute;es (TKT) en 2019. Selon l’Association internationale du transport aérien (Iata), les effets dévastateurs de la pandémie en matière de fret aérien devraient être effacés dès 2024 et ce secteur, qui représente un tiers du commerce mondial en valeur (mais seulement 1 % en volume), devrait, d’ici trois ans, retrouver une croissance de plus de 10 % par an, tiré par le fort développement économique de l’Asie et de certaines régions d’Afrique. C’est dans ce nouveau contexte économique et politique que le retour du dirigeable, transfiguré par de nombreuses ruptures technologiques, prend tout son sens et peut contribuer à la fois à réduire sensiblement l’empreinte carbone du transport aérien, à commencer par le fret, et à fournir aux pays en voie de développement de nouveaux outils performants et moins coûteux pour accélérer la réalisation de leurs infrastructures et permettre le transport économique de passagers. En France, la société Flying Whales, fondée en 2012, nourrit de grandes ambitions et veut devenir leader mondial des nouveaux dirigeables destinés au transport de charges lourdes. Cette société est contrôlée par FL WH Holdco, un holding dont les principaux actionnaires sont la région Nouvelle-Aquitaine (30 %), le gouvernement du Québec (25 %) et l'avionneur chinois Avic (25 %). Flying Whales va construire l'an prochain sa première usine de fabrication près de Laruscade, à 43 km de Bordeaux, en Gironde, et espère lancer en exploitation commerciale son premier dirigeable baptisé LCA60T en 2025. Avec ses 200 mètres de long (l'équivalent de deux Airbus mis bout à bout) et ses 50 mètres de diamètre, le LCA60T sera la plus grosse machine volante au monde. Ce monstre des airs pourra transporter pas moins de 60 tonnes à une vitesse de 100 km/h. Cette entreprise se dit persuadée que son dirigeable de nouvelle génération est de loin la solution la plus performante, tant sur le plan économique qu’écologique, pour embarquer ou acheminer à un coût réduit des charges lourdes dans des régions isolées, et parfois totalement dépourvues d’infrastructures de base. Flying Whales a d’ailleurs noué un partenariat avec l’Office national des forêts, pour le transport du bois, mais elle souligne que le marché potentiel du transport de marchandises volumineuses et pondérales, câbles, pales d’éoliennes, pylônes et antennes électriques, éléments préfabriqués de bâtiments, grosses pièces industrielles, est gigantesque. S’agissant des risques d’incendie, le patron de FW, Romain Schalck, rappelle que son dirigeable n’a plus rien à voir avec ceux que l’on construisait il y a un siècle. L’hélium a remplacé l’hydrogène, gaz inflammable ; les matériaux composites permettent à présent de fabriquer des enveloppes à la fois souples, résistantes et légères, et l’informatique embarquée, couplée à l’exploitation de prévisions météorologiques de plus en plus fine permet de voler dans des conditions de sécurité optimales. Enfin, Romain Schalck souligne que, contrairement aux avions, en cas de perte des moteurs, un aérostat ne s’écrase pas. FW présente son 60T (Large Capacity Airship), comme un engin polyvalent, qui pourra transporter de nombreux types de charges. Contrairement à l’avion, qui doit dépenser une grosse quantité d’énergie pour décoller et voler, le ballon reste en vol stationnaire et consomme bien moins d'énergie. Le LCA60T de Flying Whales sera à la pointe de l’innovation. Il disposera notamment d’une propulsion hybride, associant 4 turbines de 1 MW pour produire l'énergie qui fait tourner les hélices. Au final, le LCA60T devrait consommer cinquante fois moins de carburant, par tonne transportée, que n’importe quel autre moyen aérien ; il devrait également émettre 20 fois moins de particules qu'un hélicoptère, à charge égale. Pourtant, en dépit de ces avantages indéniables, le dirigeable conserve un point faible par rapport à l’avion : il est davantage soumis aux contraintes météorologiques, pluie, vents violents, neige, grand froid. Néanmoins, nous l’avons vu, ce handicap doit être relativisé car les dirigeables peuvent à présent s’appuyer sur des prévisions météo plus fiables, précises et puissantes, et sur des systèmes informatiques de pilotage et de stabilisation très pointus. Selon Météo-France, le dirigeable de Flying Whales devrait pouvoir travailler en toute sécurité au moins 280 jours par an, une durée largement suffisante pour rentabiliser son exploitation. Mais le français Flying Whales devra compter avec au moins trois autres concurrents de taille, les britanniques Hybrid Air Vehicles et Varialift, et l’Américain Lockheed Martin. Il est vrai que le récent rapport « Global Airships Industry », publié en septembre 2020, estime que le marché mondial des dirigeables va doubler d’ici cinq ans, pour atteindre les 274,2 millions de dollars américains, avec un taux de croissance annuel de 5,3 %. Le dirigeable Airlander 10, développé par la société anglaise Hybrid Air Vehicles (HAV), est l’un des projets les plus avancés. Plus grand qu’un A380, cet aéronef électrique mesurera 100 mètres de long, et pourra voler à 130 km/heure pendant 5 jours successifs. Il disposera d’une cabine de plus de 2000 m², d’un train d’atterrissage rétractable et pourra stocker dix tonnes de fret. Dans un premier temps, le Airlander sera doté d’une motorisation hybride, lui permettant de parcourir 350 kilomètres en propulsion entièrement électrique. A plus long terme, HAV veut passer à une propulsion totalement électrique, grâce à une puissante pile à combustible, et travaille dans ce but avec Collins Aerospace et l’Université de Nottingham. L’entreprise anglaise Varialift, fondée par l’ingénieur et pilote Alan Handley et installée sur l’ancienne base militaire de Châteaudun, travaille également à une solution innovante de transport de fret par dirigeable, pouvant être déployée sans aucune infrastructure au sol. La technologie déployée chez Varialift repose sur l’utilisation de plusieurs réservoirs d’hélium. Une fois le dirigeable rempli, l’altitude atteinte reposera sur des ballasts grâce à la compression de l’hélium. Ces dirigeables pourront voler à une vitesse allant de 250 à 350 km/heure, à une altitude maximale de 9km. La structure de l’engin sera en aluminium, ce qui lui offre une grande résistance à la chaleur et à la corrosion, et la propulsion électrique sera assurée par des moteurs Siemens. A terme, ces dirigeables, qui devraient entrer en production dans trois ans, pourraient être équipés de panneaux photovoltaïques organiques souples qui fourniraient jusqu’à 50 % des besoins en énergie de l’engin. Dans sa première version, le dirigeable-cargo de Varialift aura une capacité d’emport de 50 tonnes, puis viendront des versions plus grosses, pouvant aller jusqu’à 250 tonnes ! Alan Handley souligne la pertinence de sa solution pour la construction des immenses parcs éoliens prévus en Afrique, « L’Ethiopie va réaliser d’énormes parcs de plusieurs milliers d'éoliennes dans une région totalement désertique : nous pouvons lui proposer une solution de fret dix fois moins coûteuse que les avions-cargo. Nos dirigeables peuvent aller partout et se poser n’importe où, dans un cercle de 100 mètres, avec un tonnage de jumbo jet ! ». L’entreprise estime que la demande mondiale pourrait s’élever, d’ici 20 ans, à 16 000 dirigeables, pour un marché global de 40 milliards de $. De quoi envisager la fabrication d’au moins cent dirigeables par an… L’américain Lockheed Martin parie pour sa part sur son nouveau projet, l’Hybrid Airship. Ce dirigeable est conçu pour accéder à des zones dépourvues d’infrastructures, qui sont très nombreuses dans d’immenses pays en développement, comme l’Inde ou le Brésil. Capable de transporter à la fois 19 personnes et une charge de 21 tonnes à 100 km/heure, l’Hybrid Airship de Lockheed Martin veut d’abord se concentrer sur le marché en plein essor du transport de fret, considéré comme le plus rentable à court terme. Il est vrai qu’un dirigeable comme l’Hybrid Airship peut soulever jusqu’à 60 tonnes, bien plus que n’importe quel hélicoptère, ce qui le rend largement plus rentable que tous les avions cargo existants, comme le Beluga d’Airbus. Reste que le nouvel impératif mondial de lutte contre le changement climatique pourrait bien également relancer le dirigeable pour le transport de passagers. Le gouvernement chinois travaille d’ailleurs sur un projet de desserte aérienne interurbaine par dirigeable modulable, conçu pour intégrer des bus dans les appareils, ce qui permettrait de décongestionner le réseau routier chinois, tout en réduisant sensiblement les émissions de CO2 par passager transporté. Il faut en outre bien comprendre qu’à l’avenir les priorités du transport aérien vont profondément évoluer, lutte contre le changement climatique oblige. La sobriété énergétique, la faible empreinte carbone, la sécurité, le niveau sonore réduit et le faible coût d’exploitation vont devenir des facteurs de compétitivité plus impo rtants que la vitesse pure, du moins pour le transport aérien intracontinental. En outre, si vous décomptez les temps d’accès et d’embarquement à l’aéroport, au départ et à l’arrivée, la différence de temps parcours total, entre un dirigeable rapide (300 km/heure) et un avion, pour un passager qui devra effectuer un vol de moins de 1000 km, risque d’être au final assez faible et ne sera probablement pas considéré comme rédhibitoire, surtout si le prix du billet est deux fois moins élevé et le confort de vol (espaces de travail et de loisirs plus importants), bien plus grand. Il est donc possible, sinon probable, que ce renouveau du dirigeable ne se cantonne pas au fret, à l’exploration ou au tourisme de luxe, et parvienne également à trouver sa place pour les transports de passagers, et à devenir ainsi le « maillon manquant » entre le train à grande vitesse (qui nécessite de coûteuses infrastructures) et l’avion de ligne, qu’il sera difficile de rendre rapidement propre et silencieux, et qui aura toujours besoin d’aéroports, par nature distants des centres urbains. Au niveau mondial, si l’on table sur l’hypothèse d’un fort développement du dirigeable nouvelle génération (à la fois pour le transport de passagers et de fret), il serait possible d’éviter d’ici 2040 l’émission de 300 millions de tonnes de CO2 par an, ce qui représente l’équivalent actuel des émissions françaises annuelles, une contribution qui serait la bienvenue pour accélérer encore la fin de l’économie-carbone. En France, le transport de passagers par dirigeable pourrait en outre être favorisé par la loi « Climat et Résilience » qui vient d'être adoptée par le Parlement, et qui prévoit une suppression des liaisons aériennes intérieures, dès lors qu’il existe une alternative ferroviaire d’une durée de moins de deux heures et demi. Dans cette nouvelle aventure technologique et industrielle, qui se joue à l’échelle de la planète, nous devons nous réjouir qu’un des principaux projets de dirigeable de nouvelle génération soit français et il est heureux que l’Etat et les collectivités territoriales se soient engagés pour soutenir ce pari, certes risqué, mais riche de promesses et porteur de nombreuses retombées technologiques très positives pour notre compétitivité, notre économie et notre société… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Nanotechnologies et Robotique | |
| | | Améliorer toujours plus le quotidien des malades, particulièrement des autistes, et des personnes âgées. L'arrivée de la robotique avait déjà été d'une grande aide pour ces personnes fragiles mais deux bio-ingénieurs italiens à l'Université de Pise ont voulu aller plus loin : ils ont développé des robots humanoïdes. Lorenzo Cominelli et Enzo Pasquale Scilingo sont issus du centre de recherche Enrico Piaggio de l’Université de Pise. Là-bas, ils ont conçu "Abel", un robot humanoïde qui a l'apparence d'un garçon de 12 ans. Grâce à lui, ils espèrent pouvoir apporter un meilleur compagnon de vie qu'un robot classique aux personnes âgées et malades, notamment pour les patients souffrant de graves troubles psychologiques. « Ce que nous voulons faire avec Abel, c'est aussi avoir un robot partenaire à la maison qui pourrait aider une personne âgée ou une personne en difficulté », précise Enzo Pasquale Scilingo. L'âge supposé du robot, les traits de son visage et sa constitution physique, ont été choisis pour améliorer son potentiel relationnel. « Avec Abel, nous voulons savoir si une machine peut aider quelqu'un à garder un état sain, pas seulement physique mais aussi mental et émotionnel », soulignent ces deux chercheurs. En observant des paramètres tels que la fréquence de la voix, les changements thermiques ou la fréquence des battements cardiaques, ce robot serait capable, selon ses créateurs, d'analyser les émotions humaines. Cette technologie est possible grâce à de très nombreux équipements : caméras, micros, casques EEG - qui permettent de mesurer l'activité cérébrale - et thermos-scanners sont installés sur le robot. Un artiste tout droit venu d'Hollywood a prêté main forte à cette création. Gustav Hoegen et sa société Biomimic sont des spécialistes de l'animatronique. Ils ont notamment développé des robots pour de nombreux grands films comme Star Wars ou encore Jurassic Park. Pour l'instant, Abel est en phase de test et son développement n'est pas terminé. Actuellement, le projet progresse grâce à des capteurs qui sont placés sur les personnes aidées. Finalement, le robot devrait être doté de détecteurs afin de comprendre les émotions des malades à distance. Article rédigé par Georges Simmonds pour RT Flash Euronews | | | |
| Le CHU d’Angers vient de se doter d'un système robotisé unique en Europe afin de procéder à des « interventions chirurgicales à haut risque ». L’équipement, baptisé Loop X, qui a coûté plus d’un million d’euros (dont 100.000 euros financés par la Région), pourra notamment être utilisé en cas de chirurgie de la colonne vertébrale, de biopsie profonde du cerveau ou encore d’opérations complexes du bassin, expliquent les équipes. Une vingtaine d’interventions a déjà eu lieu depuis la mise en service de Loop-X, au mois de mars. Ce robot, conçu par la société allemande Brainlab, est en fait composé de trois parties. « Le premier élément est un système d’imagerie robotisé mobile », explique Vital Tronet, directeur de Brainlab France. « Il produit des images en 2D et en 3D, sur un champ très large ou très réduit. Il est relié à une tablette sans fil, ce qui permet de réduire l’irradiation des personnels hospitaliers, qui peuvent le commander à l’extérieur de la salle ». La seconde partie se présente comme un GPS chirurgical, qui permet au professionnel de visualiser en temps réel l’emplacement de ses instruments. Enfin, un bras robotisé « prolonge la main du chirurgien pour garantir stabilité et précision au geste opératoire », indique le CHU. « Avant, le chirurgien mettait une vis et vérifiait », illustre le docteur Rogatien Faguer. « Là, on voit la vis pénétrer en temps réel. C’est très utile lors d’interventions très délicates, par exemple près de la moelle épinière ». Pour le neurochirurgien, ce robot va permettre de prendre en charge « des gens de toute la région des Pays-de-la-Loire, dont certains étaient jusqu’alors considérés trop fragiles pour certaines opérations ». L’équipement, qui ouvre de « nouvelles perspectives pour l’enseignement et la recherche » pourrait aussi permettre d’aller plus loin dans le traitement de l’épilepsie chez l’enfant. Un essai clinique autour de la paralysie cérébrale des jeunes patients, pour le moment incurable, pourrait par ailleurs être lancé. La société allemande Brainlab, qui commercialise le dispositif, prévoit d'équiper 300 autres hôpitaux en Europe d'ici 2 à 3 ans. Article rédigé par Georges Simmonds pour RT Flash CHU Angers | | ^ Haut | |
|
| | | Un laboratoire public américain a réalisé une « percée historique » après avoir produit, grâce à la fusion nucléaire, davantage d'énergie que jamais auparavant, provoquant l'enthousiasme de nombreux scientifiques dans le monde. L'expérience, qui a eu lieu le 8 août au National Ignition Facility (NIF), en Californie, a été permise grâce à la concentration sur une cible unique, de la taille d'une petite pièce de monnaie, de 192 faisceaux laser parfaitement synchronisés. Ce dégagement extrêmement concentré et bref d'énergie a eu pour effet de produire un point chaud du diamètre d'un cheveu, générant plus de 10 quadrillions de watts par la fusion, pendant 100 trillionièmes de secondes. C'est huit fois plus d'énergie que lors des dernières expériences réalisées au printemps. La fusion nucléaire est considérée par ses défenseurs comme l'énergie de demain, car elle produit peu de déchets et pas de gaz à effet de serre. Elle diffère de la fission, technique utilisée dans les centrales nucléaires actuellement, et qui consiste à casser les liaisons de noyaux atomiques lourds pour en récupérer l'énergie. La fusion est le processus inverse : on fait fusionner deux noyaux atomiques légers pour en créer un lourd. En l'occurrence deux isotopes (variantes atomiques) de l'hydrogène, donnant naissance à de l'hélium. C'est ce processus, très difficile à maîtriser en laboratoire, qui est à l'œuvre dans les étoiles, dont notre Soleil. Cette avancée place les chercheurs tout près du seuil d'ignition, selon le communiqué, c'est-à-dire le moment où l'énergie produite dépasse celle utilisée pour provoquer la réaction. Des préparatifs sont déjà en cours pour reproduire cette expérience, ce qui prendra plusieurs mois, informe le communiqué, qui précise que des données détaillées seront publiées dans une revue scientifique. Ce résultat est une avancée historique pour la recherche sur la fusion par confinement inertiel, a déclaré Kim Budil, le directeur du Lawrence Livermore National Laboratory, dont dépend le NIF. « Les équipes du NIF ont fait un travail extraordinaire », a commenté le Professeur Steven Rose, co-directeur du centre de recherche dans ce domaine à l'Université Imperial College London. C'est la percée la plus significative dans la fusion inertielle depuis ses débuts en 1972. En France, le projet international Iter vise également à maîtriser la production d'énergie à partir de la fusion de l'hydrogène. L'assemblage du réacteur a commencé il y a un an dans les Bouches-du-Rhône et le calendrier d'Iter prévoit, si toutes les étapes de recherche se déroulent normalement, le début de la production industrielle et maîtrisée d'électricité par fusion pour 2050. Article rédigé par Georges Simmonds pour RT Flash Radio Canada NIF | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Tout le monde a encore en mémoire la nuit du 7 avril 2021, au cours de laquelle une vague de froid intense, en provenance de l’Arctique frappa une grande partie de l’Europe et dévasta les vignobles du Bordelais et de Bourgogne. Ces phénomènes extrêmes trouvent leur origine dans les glaces du cercle arctique et, de manière contre-intuitive, ils sont bien en lien avec le réchauffement de la planète. C’est ce lien qu'a réussi à mettre en lumière une équipe de chercheurs qui a montré une corrélation entre la fonte des glaces arctiques et les vagues de froid et de neige enregistrées plus au Sud. L’étude s’est notamment basée sur l’analyse d’une perturbation surnommée la « bête de l’est » qui a frappé l’Europe en mars 2018 et causé plus d’un mill iard d’euros de dégâts et 95 victimes, des Balkans à la Scandinavie. « Quand on parle de réchauffement climatique, on pense souvent que les températures sur Terre vont augmenter de manière homogène, comme si on réglait le thermostat d’une maison. En réalité, la dynamique du changement climatique est nettement plus articulée », explique le glaciologue Alun Hubbard de l’Université arctique de Norvège, l’un des auteurs de la recherche. En 2017, Hubbard et une équipe de chercheurs, dirigée par la géochimiste Hannah Bailey de l’Université d’Oulu, ont installé en Finlande un analyseur d’isotopes capable de « renifler l’air » et la composition des particules dans l’atmosphère. Pendant la « bête de l’est », l’instrument a détecté l’empreinte géochimique des particules de vapeur en transit vers l’Europe, identifiant leur origine dans les eaux de la mer de Barents, une partie de l’océan Arctique située entre la Norvège, la Russie et les îles Svalbard. « Dans les années 1970, la mer de Barents était complètement gelée en hiver », explique Hubbard, « mais depuis 1979, elle a perdu 54 % de sa couverture ». La banquise forme une sorte de « couvercle » sur l’océan et retient ainsi l’évaporation de l’eau. Lorsque des courants d’air froid et sec passent au-dessus d’une zone couverte de glace, l’échange d’humidité est réduit au minimum. Mais quand cette couverture fond, l’échange de vapeur dans l’atmosphère est beaucoup plus intense, et l’air qui se dirige ensuite vers le Sud se charge d’humidité. « Pendant la « bête de l’est », plus de 60 % de la mer de Barents était dégagée des glace s en raison d’une période de chaleur supérieure à la moyenne au cours de la période précédant la tempête. Cela a permis aux courants aériens de se charger de 140 gigatonnes d’eau. 88 % de la neige qui est tombée ces jours-là dans le centre nord de l’Europe provenaient de la mer de Barents », dit M. Hubbard. Selon l’étude, chaque mètre carré de glace de mer fondue sur la mer de Barents a émis 70 litres d’eau dans l’atmosphère, « et si on calcule que depuis le début des années 80, cette zone a perdu un demi-million de mètres carrés de glace, on peut comprendre l’ampleur du phénomène », conclut le chercheur. La situation d’avril 2021 s’est déjà répétée avec le même modèle : le 20 mai 2021 en Russie, juste sur la côte de la mer de Barents, des températures record ont été enregistrées, avec des maxima de 32°C. En même temps, une grande partie de l’Europe continentale a connu un mois de mai avec des températures régulièrement inférieures à la moyenne. Selon les chercheurs, un océan Arctique de plus en plus libre de glace sera ainsi une source de précipitations pour l’Europe continentale. Une autre étude récente dirigée par Catherine Bradshaw, du Met Office et de l'Université britannique d'Exeter, a révélé que le changement climatique entraînerait une augmentation des niveaux de précipitations dans tout l'Antarctique. Cela pourrait accélérer la perte de glace future et influencer les conditions météorologiques dans le monde entier. Alors que la région antarctique continue de se réchauffer, la calotte glaciaire en retrait exposera la roche sous-jacente. Ce sol nouvellement découvert sera moins réfléchissant que la glace qui se trouvait au-dessus, augmentant les températures locales et facilitant un changement des régimes locaux de vent et de précipitations. « Avec une grande calotte glaciaire sur le continent comme nous l'avons aujourd'hui, les vents antarctiques soufflent généralement du continent vers la mer », souligne Catherine Bradshaw. « Cependant, si le continent se réchauffe, cela pourrait être inversé, avec les vents soufflant de la mer plus froide vers la terre plus chaude - tout comme nous le voyons avec les moussons ailleurs dans le monde », précise-t-elle. Un changement des conditions météorologiques au-dessus de l'Antarc tique peut également influencer le climat dans d'autres régions du monde. Ce processus augmenterait considérablement les précipitations sur l'Antarctique et entraînerait une accumulation plus élevée d'eau douce à la surface de l'océan. Cela pourrait déclencher une réaction en chaîne où la circulation océanique dans la région est perturbée, entraînant un réchauffement des températures à de grandes profondeurs. Et à mesure que de plus en plus de terres libres de glace sur la côte seront exposées, il deviendra plus difficile pour la calotte glaciaire de récupérer de la masse. Alors que la Terre continue de se réchauffer, les chercheurs espèrent que nous pourrons peut-être apprendre comment empêcher un effondrement total de la calotte glaciaire antarctique en étudiant les régions de mousson ailleurs dans le monde. De vastes zones des régions tropicales et subtropicales de la planète connaissent actuellement des conditions extraordinaires de mousson, en particulier en Afrique de l’Ouest et en Asie du Sud. Article rédigé par Georges Simmonds pour RT Flash Nature Eurekalert | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des chercheurs de l’EPFL (Lausanne-Suisse) ont développé une interface neuronale capable de se décomposer dans le corps après avoir fonctionné plusieurs mois, puis de laisser les tissus repousser. Elle est implantée dans le système vasculaire, et non dans le cerveau, évitant ainsi une chirurgie invasive. Certains implants médicaux peuvent durer des années – les pacemakers par exemple – , d’autres deviennent inutilisables après peu de temps, en raison de défaillances techniques. « Dans le domaine des neuroprothèses, les nouveaux dispositifs utilisent des matériaux plus fins, plus flexibles et plus souples, pour être compatibles avec les propriétés mécaniques des tissus cérébraux », explique Diego Ghezzi, Professeur à la Faculté des Sciences et Techniques de l’Ingénieur de l’EPFL et à la tête de la Chaire Medtronic en neuroingénierie. Lorsqu’ils ne fonctionnent plus et doivent être ôtés, le retrait est difficile, voire impossible, et exige dans tous les cas une chirurgie invasive. Afin de contourner ces obstacles, les scientifiques travaillent sur des implants médicaux dégradables. Ils se heurtent toutefois à la durée de vie trop courte des dispositifs, due aux choix des matériaux, qui limitent les applications. « Les interfaces dégradables actuellement en développement ne fonctionnent que quelques jours », indique Diego Ghezzi. « Cela ne permet que des utilisations très limitées ». Les scientifiques de l’EPFL sont parvenus à mettre au point une interface neuronale composée entièrement de polymères, dégradable après plusieurs mois, offrant ainsi des applications à moyen et long terme, comme la surveillance de l’activité épileptique chez les patients, ou dans le cadre de la neuroréadaptation après un accident. Les chercheurs ont également observé qu’une fois l’interface disparue, les tissus repoussent et reprennent leur place. Ils ont également cherché à supprimer tout acte médical invasif pour l’implantation, comme une ouverture de la boîte crânienne. Les interfaces neuronales, de petits dispositifs composés d’électrodes, sont en effet placées dans le cerveau pour stimuler ou enregistrer l’activité cérébrale, par exemple dans le cadre de traitements contre la maladie de Parkinson, de l’épilepsie, des troubles compulsifs, ou pour une meilleure compréhension du cerveau. Ils y sont parvenus en créant un dispositif qui s’implante dans le système vasculaire plutôt que dans les tissus cérébraux. « Nous nous sommes inspirés des stents, ces implants utilisés pour élargir les artères », explique Adele Fanelli, doctorante à la Chaire Medtronic en neuroingénierie. L’interface neuronale est toujours capable de communiquer avec le cerveau, mais n’a plus besoin d’être en contact avec le système nerveux. En utilisant des polymères plutôt que du métal, les chercheurs évitent aussi de fortes réactions inflammatoires. « Notre approche démontre la possibilité de développer des neuroprothèses non invasives et qui interagissent avec les tissus. Cela pourra permettre de multiplier l’impact potentiel des neurotechnologies et le nombre de person nes pouvant en bénéficier », conclut Diego Ghezzi. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| On savait déjà qu'une consommation excessive d'aliments riches en graisses saturées, comme la viande rouge ou les produits transformés, augmente sensiblement les risques de cancer du côlon, au même titre que des antécédents familiaux, les maladies inflammatoires de l'intestin (MICI), le tabagisme et le diabète de type 2. On pense ainsi que l'alimentation influence fortement le risque de cancer colorectal, et que des changements dans les habitudes alimentaires pourraient réduire jusqu'à 70 % le risque de ce cancer. Enfin, de tous les facteurs de risque de cancer du côlon, l'alimentation est le facteur de mode de vie qui peut être le plus facile à contrôler. Partant de ce lien déjà connu, entre obésité et risque accru de cancer colorectal, l’équipe du Docteur Miyeko Mana, professeur à l’Arizona State, s’est concentrée sur les cellules souches de l’intestin, très probablement à l’origine du cancer et est parvenue à décrypter toute la cascade moléculaire initiée par un régime riche en graisses et conduisant au cancer de l'intestin et du côlon. Au fur et à mesure que les aliments sont décomposés et traversent l'intestin, ils interagissent avec les cellules souches intestinales (intestinal stem cells : ISC) présentes tout le long des surfaces internes de l'intestin. Ces ISC regroupées dans des cryptes contiennent des molécules capteurs de graisses qui détectent et réagissent aux graisses de l’alimentation. Les chercheurs ont étudié les mécanismes nécessaires aux cellules souches pour s'adapter à un régime riche en graisses. Des protéines récepteurs déclencheurs de cancer : au centre de ce mécanisme d’adaptation des cellules souches aux régimes riches en graisses, figurent des récepteurs activés par les « proliférateurs de peroxysomes » ou PPAR (peroxisome proliferator-activated receptor). Et certains PPAR déclenchent un programme cellulaire qui augmente le risque de cancer. Il existe plusieurs familles de PPAR, les scientifiques ont cherché à mieux définir leurs rôles respectifs sur la souris nourrie avec un régime riche en graisses. L'activité de chaque PPAR a été soigneusement surveillée pour comprendre ses effets sur le risque de cancer. Cette étude a montré que deux récepteurs, PPAR delta et PPAR alpha, jouent un rôle clé dans le risque de cancer colorectal associé à un régime riche en graisses. Par séquençage moléculaire de cellules de différentes zones de l'intestin grêle et du côlon, les chercheurs ont montré que les deux protéines PPAR ciblent une protéine mitochondriale, Cpt1a, nécessaire pour l'importation d'acides gras à longue chaîne (LCFA) dans les mitochondries. Une souris privée du gène Cpt1a et nourrie avec un régime riche ne développe plus de tumeur. Il semblerait donc que la suppression d’une protéine, Cpt1a, protège contre ce phénotype de régime riche en graisses dans les cellules souches intestinales, et réduit ainsi le risque de cancer colorectal. Si ces travaux confirment que les niveaux de graisses dans l’alimentation ont un impact direct sur les cellules souches intestinales, et décryptent le processus sous-jacent, ils suggèrent aussi que cibler ces 2 protéines PPAR et/ou CPT1a pourrait protéger l'intestin du développement de tumeurs. Article rédigé par Georges Simmonds pour RT Flash Cell Reports | | | |
| Une étude française dirigée par le Professeur Jérémie SELLAM (service de rhumatologie de l’Hôpital Saint-Antoine, AP-HP, Paris) a pu montrer que la stimulation du nerf vague par voie auriculaire transcutanée (tVNS) permet de traiter efficacement les conséquences douloureuses et handicapantes de l’arthrose des mains. Sur les 20 patients inclus dans l’étude, 18 ont pu être analysés (âge médian 69 ans, 83 % de femmes). Initialement, la médiane de l’EVA de la douleur à la main au cours des 48 dernières heures était de 60 mm. Après 4 semaines de tVNS, la douleur médiane de la main sur l’EVA est passée à 40 mm, soit une diminution médiane de -23.5. Par ailleurs, le nombre d’articulations douloureuses à la pression est passé de 9.5 au début du traitement à 8 après 4 semaines. Dans le même temps, une amélioration de la fonction des mains a également été observée. « Aucun effet indésirable sévère n’a été noté sur le mois de suivi », ajoutent les chercheurs. Parmi les localisations d’arthrose, celle des mains touche les articulations des doigts et représente la 2ème localisation d’arthrose la plus fréquente (après le genou) ; avec une incidence de 4 à 10 % dans la population générale de plus de 50 ans. Dans l’arthrose digitale, on individualise l’arthrose dite érosive qui se caractérise par plus de douleur, plus de gêne fonctionnelle, plus d’inflammation et plus de destruction articulaire. C’est pour cette forme la plus sévère d’arthrose des mains que de nouveaux traitements sont attendus, car plusieurs essais cliniques médicamenteux réalisés ces dernières années se sont avérés négatifs (anti-TNF, hydroxychloroquine, tocilizumab, colchicine, anti-IL1, méthotrexate). Le nerf vague, qui appartient au système nerveux autonome, régule certaines fonctions de l’organisme (pression artérielle et motricité digestive). « La stimulation du nerf vague par voie auriculaire transcutanée (tVNS) est une approche originale antalgique et anti-inflammatoire ayant donné des résultats encourageants dans plusieurs affections telles que les migraines, les épilepsies ou encore les dépressions. De nombreux essais cliniques de tVNS auriculaire sont encore en cours », relate le Professeur Jérémie SELLAM. Article rédigé par Georges Simmonds pour RT Flash DP | | | |
| Le cancer du sein métastatique triple négatif (absence de récepteurs hormonodépendants aux estrogènes, à la progestérone et au HER2) reste difficile à traiter et son pronostic reste sombre. Mais une nouvelle arme sera bientôt disponible pour mieux prendre en charge ce cancer : le sacituzumab govitecan, qui est composé d'un anticorps monoclonal ciblant spécifiquement un antigène de surface des cellules trophoblastiques (Trop-2) présent dans plus de 90 % des tumeurs du sein et d’un inhibiteur de topoisomérase (SN-38). Une étude multicentrique randomisée a comparé l'efficacité de ce composé à celle d'une chimiothérapie standard (éribuline, vinorelbine, capécitabine ou gemcitabine selon le choix des praticiens) en termes de survie chez des patientes souffrant d'un cancer du sein métastatique triple négatif en rechute ou ne répondant pas au traitement après au moins deux lignes de chimiothérapie standard. Toutes les patientes avaient été traitées précédemment par des taxanes. L'âge médian des patientes était de 54 ans. On a observé une stabilisation de la pathologie pendant 5,6 mois sous sacituzumab govetican, et seulement de 1,7 mois avec une chimiothérapie classique. Notons que pour l'évaluation de ce résultat, les patientes présentant des métastases cérébrales avaient été exclues. La durée médiane de survie a été de 12,1 mois parmi les patientes traitées par le sacituzumab govetican (235 patientes) avec 35 % de réponses, et de 6,7 mois avec tout autre chimiothérapie standard (233 patientes), avec 5 % de réponses positives au traitement. Le rapport des risques instantanés (Hazard Ratio HR) de mortalité montre un bénéfice significatif de cette nouvelle thérapeutique par rapport aux chimiothérapies classiques. Les effets indésirables ont cependant été nettement plus nombreux avec ce nouveau traitement. Aucun décès dû au traitement n'a été observé dans le groupe du sacituzumab govetican. Les auteurs concluent donc que ce nouveau traitement permet une survie prolongée, mais soulignent la fréquence de ses effets indésirables. Article rédigé par Georges Simmonds pour RT Flash NEJM | | | |
| Situés sur la membrane de nombreuses cellules immunitaires, les récepteurs aux chémokines jouent un rôle important dans leur activation défensive. Les chémokines sont de petites protéines qui se lient à ces récepteurs et contrôlent le mouvement et le comportement des globules blancs. Malgré l’importance de cette famille de récepteurs, leur mécanisme d’activation reste encore méconnu. Un consortium de recherche de l’Université de Genève (UNIGE), du Biozentrum de l’Université de Bâle et de l’Institut Paul Scherrer (PSI) de Villigen, est parvenu à décrypter le mécanisme d’activation du récepteur CCR5, un membre de cette famille impliqué dans plusieurs maladies, notamment le VIH/SIDA, le cancer ou encore les complications respiratoires du COVID-19. Cette découverte représente une étape importante dans la compréhension de la biologie des récepteurs aux chémokines, fournissant de précieuses indications pour améliorer l’efficacité et le ciblage de nombreux médicaments dont le mode d’action vise ce mécanisme. Ces travaux sont à découvrir dans la revue Science Advances. Le récepteur CCR5 joue un rôle majeur dans l’inflammation et la défense immunitaire, et est depuis longtemps une cible importante des médicaments anti-VIH. « Les recherches sur CCR5 ont débuté il y a près de 25 ans, dans le cadre de la lutte contre le SIDA », explique Stephan Grzesiek, professeur au Biozentrum de l'Université de Bâle, qui a co-dirigé ces travaux avec le professeur Oliver Hartley du Département de pathologie et immunologie de la Faculté de médecine de l’UNIGE et une équipe de l’Institut Paul Scherrer (PSI). « Il est en effet à la base du mécanisme d’invasion du VIH dans l’organisme, mais semble également très important dans de nombreux autres processus pathologiques, notamment dans les cancers et les maladies inflammatoires. Mais pour pouvoir mieux l’exploiter dans un but thérapeutique, nous devions comprendre, à un niveau atomique, comment il est activé en entrant en liaison avec des chémokines ». Les chémokines sont de petites molécules de signalisation dont le rôle est essentiel pour la migration et l’activation des cellules immunitaires. En se fixant aux récepteurs situés sur la membrane des globules blancs, elles agissent comme guide et permettent à ceux-ci de se trouver au bon endroit et au bon moment pour assurer l’organisation du système immunitaire et son activation en cas d’infection ou de blessure. Mais comment, concrètement, le récepteur ressent-il l’arrimage d’une chémokine depuis l’extérieur de la cellule ? Puis comment ce message d’activation est-il transmis à l’intérieur de la cellule pour qu’elle organise sa réponse ? Jusqu’ici, l’étude de ce phénomène était freinée par la difficulté d’observer les structures en 3D des récepteurs lorsqu’ils sont liés aux molécules activatrices. Pour ce faire, l’équipe bâloise, spécialiste de biologie structurale, a eu recours à des outils de cryo-microscopie électroniques qui permettent de préserver et d’observer la structure des plus petits éléments du vivant. «Cependant, afin de comprendre l’entièreté du processus, il fallait utiliser des chémokines modifiés pour se fixer aux récepteurs de manière plus stable que les chémokines naturelles », indique Oliver Hartley. « Et nous avions justement développé par bio-ingénierie une série de telles molécules au cours de nos recherches sur les médicaments anti-VIH ». Les scientifiques ont ainsi pu observer que certains de ces variants suractivent le récepteur alors que d’autres les bloquent complètement. Le récepteur, intégré à la membrane cellulaire, fonctionne par un mécanisme de clé et de serrure. Une partie spécifique de la structure des chémokines doit s’insérer dans la serrure du CCR5 pour activer un changement de la structure du récepteur qui déclenche alors l’activation et la migration des globules blancs. « La capacité d’activation des chémokines est déterminée par certains acides aminés (les briques de construction des protéines) qui doivent s’arranger selon un schéma précis. Si la chémokine adopte une forme droite, elle parvient à activer le récepteur. Mais en cas de modification de ces acides aminés, la molécule adopte une forme légèrement différente qui, même si elle permet de conserver une liaison très forte avec le récepteur, empêche son activation », explique Oliver Hartley. Ce sont ces petites modifications de précision qui font la différence entre les activateurs et les inhibiteurs du récepteur. Ainsi, malgré une architecture quasiment identique, d’infimes différences structurelles des chémokines déterminent leur capacité à activer ou à inhiber le récepteur. La compréhension détaillée de ce mécanisme permettra d’améliorer les médicaments en développant de nouveaux composés capables d’influencer le système immunitaire de manière très spécifique. Article rédigé par Georges Simmonds pour RT Flash UNIGE | | | |
| C'est une avancée majeure, et peut-être historique, qui vient d'être accomplie dans la longue et difficile lutte contre le paludisme, qui tue encore 400.000 personnes par an, en dépit des progrès qui ont permis de diminuer cette mortalité de 60 % depuis 20 ans, dont une très grande majorité d'enfants africains de moins de cinq ans, selon l'Organisation mondiale de la santé (OMS). Une équipe de recherche britannique a effet montré que l'utilisation d'un nouveau protocole, associant l'administration d' une dose de rappel d'un vaccin antipaludique avant la saison des pluies, avec des médicaments préventifs, permettrait de réduire considérablement le taux d'hospitalisation et de mortalité provoqué par ce parasite véhiculé par piqures de moustiques. Mis au point par le laboratoire britannique GSK, le vaccin « RTS,S », n'a qu'une efficacité limitée, précise Brian Greenwood, de la London School of Hygiene and Tropical Medicine et auteur principal de l'étude. Des travaux ont en effet montré que la protection du vaccin diminue dans le temps, pour tomber à seulement 30 % au bout de trois à quatre ans. Ces chercheurs ont donc voulu évaluer le bénéfice d'une nouvelle stratégie, combinant un rappel de ce vaccin chaque année, après une série de trois doses initiales et la prise de médicaments. Le rappel a été administré avant la saison des pluies, lorsque la population de moustiques, vecteurs de la maladie, est au plus haut. Les essais cliniques ont suivi plus de 6.000 enfants âgés de 5 à 17 mois, au Burkina Faso et au Mali, pendant trois ans. Ils ont été répartis en trois groupes : le premier n'a reçu que des médicaments antipaludiques -- sulfadoxine-pyriméthamine et amodiaquine ; le deuxième a reçu uniquement le vaccin ; enfin, le troisième groupe a reçu à la fois le rappel du vaccin et les médicaments antipaludéens. Résultat : l'association du vaccin et des médicaments s'avère de loin la plus efficace. Elle a permis de diminuer de 63 % le nombre de cas, de 71 % les hospitalisations, et de 73 % le nombre de décès, comparé à la seule prise de traitements préventifs. Selon Brian Greenwood, « Si cette combinaison avait été testée par rapport à une absence de traitement, ce qui est évidemment impossible pour des raisons éthiques évidentes, la réduction du nombre d'hospitalisations et de décès aurait probablement été de 90 % », ce qui est absolument remarquable ». En généralisant cette nouvelle stratégie préventive et thérapeutique au niveau mondial, il devrait être possible d’éviter à terme 300 000 décès par an liés au paludisme… Article rédigé par Georges Simmonds pour RT Flash NEJM | | | |
| Des chercheurs du Van Andel Institute (Michigan) ont montré que l'inflammation chronique dans l'intestin déclenche des processus qui participent à la pathogenèse de Parkinson. En pratique, cette nouvelle compréhension suggère à nouveau que contenir l'inflammation intestinale pourrait réduire de manière significative, le risque de maladie de Parkinson. Les chercheurs de Grand Rapids soulignent à nouveau la trilogie intestin, système immunitaire et maladie de Parkinson, allant un peu plus loin en révélant une association entre la maladie de Parkinson et les maladies inflammatoires de l'intestin, telles que la colite ulcéreuse et la maladie de Crohn, chez la souris modèle d'inflammation intestinale. Des résultats en ligne avec ceux de précédentes études suggérant que le risque de maladie de Parkinson s'estompe chez les patients dont la maladie inflammatoire chronique intestinale (MICI) est traitée avec des anti-TNF, un traitement anti-inflammatoire standard. L'inflammation intestinale déclenche l'agrégation d’alpha-synucléine dans le côlon : l'équipe montre chez la souris modèle de MICI que l'inflammation intestinale chronique déclenche l'agrégation de la protéine alpha-synucléine dans les muqueuses du côlon, ainsi que dans les cellules immunitaires locales appelées macrophages. Or, ce phénomène a déjà été constaté dans le côlon de patients atteints de MICI, et a déjà été associé à une augmentation du risque de Parkinson. Un processus similaire dans le côlon et dans le cerveau : ce processus observé dans le côlon est similaire à celui observé dans le cerveau des patients parkinsoniens envahis par des agrégats « collants » d'alpha-synucléine qui bloquent la machinerie moléculaire qui maintient les neurones en vie. La perte de neurones et du messager chimique qu'ils produisent, la dopamine, provoque les symptômes moteurs caractéristiques de la maladie de Parkinson. L'inflammation intestinale au début de la vie exacerbe l’agrégation d’alpha-synucléine dans le cerveau plus âgé, constate l’équipe, chez la souris. Cette observation suggère que les composés chimiques inflammatoires voyagent de l'intestin au cerveau via la circulation sanguine, déclenchant une réponse immunitaire inflammatoire incontrôlable qui conduit au même phénomène dans le cerveau, soit l'agrégation des protéines. Une autre hypothèse serait le déplacement des agrégats d'alpha-synucléine mêmes jusqu'au cerveau via le nerf vague, l'un des nerfs les plus longs du corps et une « autoroute » entre l'intestin et le cerveau. Une fois parvenues au cerveau, les protéines pourraient développer leur activité toxique dans le cerveau. En modulant l'activation immunitaire chez la souris modèle de colite par des moyens génétiques ou thérapeutiques, les chercheurs parviennent à augmenter ou à diminuer les niveaux d'alpha-synucléine dans le côlon. « Nous apportons de nouvelles preuves des effets de l’inflammation intestinale sur toute une série de troubles cérébraux neurologiques et psychiatriques », commente l’auteur principal, le Docteur Patrik Brundin, directeur scientifique adjoint du Van Andel Institute. « ; L’inflammation intestinale fait partie du large éventail de facteurs qui agissent de concert pour déclencher l’apparition et la progression de la maladie ». Ces travaux révèlent une similitude frappante entre une pathologie d'agrégation de protéines dans le côlon, associée à la MICI -ou à l’inflammation- et le même processus d’agrégation toxique dans le cerveau et appellent à valider, par de nouvelles études, que le traitement de l’inflammation intestinale amortit la sévérité de la maladie de Parkinson. Article rédigé par Georges Simmonds pour RT Flash FNP | | | |
| En France, les accidents vasculaires cérébraux (AVC) sont la première cause de handicap acquis de l’adulte et la seconde cause de démence. Dans plus de 80 % des cas, les AVC résultent de l’obstruction d’une artère cérébrale par un caillot sanguin. On parle alors d’"AVC ischémique" (également nommé "embolie" ou "infarctus cérébral"). Il s’agit d’une urgence absolue : le caillot doit être éliminé le plus rapidement possible pour limiter la privation d’oxygène dans le cerveau et les séquelles neurologiques qui en découlent. Le groupe de recherche dirigé par Marie-Pierre Gratacap a identifié une cible thérapeutique qui pourrait aider à en prévenir une partie. Spécialisée dans l’étude d’une famille de protéines appelées PI3K (pour phosphoinositide 3-kinases), qui possèdent de nombreuses fonctions dans l’organisme, l’équipe s’est penchée sur le cas de la PI3KC2β : son rôle est en effet encore mal connu, car son inactivation chez la souris n’entraîne aucune conséquence manifeste. En revanche, la suppression de son homologue, PI3KC2α, conduit à une fragilité de la barrière vasculaire. L’équipe a donc eu l’idée d’étudier le rôle de PI3KC2β dans un contexte d’accident vasculaire cérébral ischémique, caractérisé par d’importants remaniements de la perméabilité vasculaire. Les chercheurs se sont en particulier intéressés à la phase de reperfusion, le moment où l ’artère se "débouche". « Lors d’une ischémie, le cerveau pâtit de l’obstruction artérielle qui le prive d’oxygène et de nutriments, mais il souffre également lors du rétablissement de la circulation. La reperfusion est en effet associée à une augmentation de la perméabilité des vaisseaux, liée à la fragilité de leur paroi. Cela favorise la formation d’un œdème et de lésions cérébrales. Nous aimerions trouver un moyen de limiter l’aggravation des lésions lors de cette étape de la prise en charge des AVC », explique Marie-Pierre Gratacap. Pour étudier le rôle de PI3KC2β, les chercheurs ont utilisé un modèle de souris chez lesquelles la protéine est inactive. Ils ont simulé un AVC ischémique chez ces animaux et chez des souris "témoins", suivi d’une reperfusion. Ils ont ensuite comparé plusieurs paramètres entre les deux groupes : la perméabilité de la paroi vasculaire après la reperfusion, le niveau d’inflammation, la taille des lésions cérébrales et la survie des animaux. Il est apparu que l’inactivation de la PI3KC2β est associée à une baisse de la taille des lésions cérébrales, de l’inflammation, de la perméabilité vasculaire et de la taille de l’œdème cérébral. Ces différences se sont traduites par une mortalité deux fois plus faible chez les souris avec une PI3KC2β inactive, ainsi qu’une meilleure préservation de leurs fonctions motrices. Face à ces résultats majeurs, les chercheurs ont poursuivi leur étude in vitro, pour comprendre les mécanismes moléculaires induits par l’inhibition de PI3KC2β. Ils ont eu recours à des cultures de cellules endothéliales humaines, qui tapissent la face interne des vaisseaux sanguins, issues de la microcirculation cérébrale, dénuées de PI3KC2β. Marie-Pierre Gratacap et ses collaborateurs y ont observé une modification du comportement des endosomes, des vésicules impliquées dans le trafic intracellulaire de protéines (pour leur élimination ou leur recyclage). Il est apparu que la suppression de PI3KC2β favorise le recyclage des protéines dites "de jonction", localisées dans la membrane des cellules et impliquées dans l’étanchéité de la couche cellulaire qui tapisse l’intérieur des vaisseaux : sans PI3KC2β, ces protéines sont plus souvent réacheminées vers la membrane, au lieu d’être dégradées. Ce phénomène pourrait expliquer la diminution de perméabilité de la paroi vasculaire observée chez les souris déficientes en PI3KC2β. Pour les auteurs, la PI3KC2β pourrait donc constituer une très bonne cible dans le traitement de l’AVC ischémique : « Nous réfléchissons au développement d’un inhibiteur de cette protéine, qui pourrait être administré au patient au moment de la reperfusion de l’artère occluse. Ce traitement pourrait préserver le cerveau des lésions dites “d'ischémie/reperfusion”, et accélérer le rétablissement des patients », envisage Marie-Pierre Gratacap. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Des chercheurs slovaques d'Axon Neuroscience, dirigés par Petr Novak, ont révélé que leur vaccin expérimental conçu pour protéger contre la maladie d’Alzheimer avait franchi la dernière étape des essais sur l’Homme. Ce candidat-vaccin AADvac1, développé par la société de biotechnologie Axon Neuroscience, s’est avéré être bien toléré par les patients et produit une réponse contre certains marqueurs de la maladie. Dans des tests avec 193 patients atteints de la maladie d’Alzheimer légère, 117 patients de la cohorte ont reçu AADvac1, tandis que le reste a agi comme groupe témoin, recevant à la place un placebo. Dans l’essai randomisé en double aveugle, mené sur 24 mois, les participants qui ont reçu AADvac1 ont pris le vaccin à base de peptides en 11 doses administrées au cours de l’essai et ont montré des niveaux élevés de réponses en anticorps immunoglobuline G (IgG). Les chercheurs s’attendent à ce que cela rende AADvac1 efficace contre les agrégations nocives de protéines tau dans le cerveau, qui sont considérées comme l’une des principales caractéristiques de la maladie. À l’appui de cela, le dernier essai a montré qu’AADvac1 est lié à une accumulation plus lente d’une protéine à chaîne légère de neurofilament (NfL), suggérant une neurodégénérescence plus lente par rapport aux patients qui ont reçu le placebo. « A ma connaissance, c’est la première fois qu’une immunothérapie ciblée tau a montré des preuves claires d’impact sur le processus neurodégénératif et une forte indication d’effet clinique chez des patients avec un profil de biomarqueur confirmé de la maladie d’Alzheimer », explique Petr Novak, chercheur principal en recherche clinique chez Axon Neuroscience. Les chercheurs restent prudents et soulignent que, pour l'instant, cette thérapie expérimentale n’a pas encore produit d'effets positifs mesurables sur le déclin cognitif des patients atteints de la maladie d’Alzheimer. « Aucun effet significatif n’a été trouvé dans les tests cognitifs et fonctionnels sur l’ensemble de l’échantillon de l’étude », écrivent les chercheurs dans leur étude. Pour savoir si l’AADvac1 peut tenir sa promesse de traiter avec succès le déclin cognitif, les chercheurs précisent qu'il faudra réaliser un essai plus vaste impliquant plus de patients ; et probablement plus de patients dont la démence est liée à la pathologie tau en particulier. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Selon une étude réalisée par des chercheurs de l'Université McMaster au Canada, et regroupant plus de 40 essais cliniques et 5.112 patients, l'ibuprofène serait finalement plus efficace que la codéine contre la douleur. Ces patients s'étaient vu prescrire des antidouleurs à la suite d'une opération. Sur une échelle de douleur de 1 à 10, les patients ont ainsi noté une amélioration plus importante avec les anti-inflammatoires non stéroïdiens (AINS) qu'avec la codéine après 6 et 12 h ; et ils ont connu moins d'effets indésirables comme des saignements. « Les AINS constituent une alternative bon marché et efficace aux opioïdes pour les douleurs post-opératoires ; en outre, ils n'entraînent pas de risque de dépendance », précise l'étude. Les anti-inflammatoires ne sont toutefois pas non plus sans risque. Ils peuvent causer des nausées, douleurs ou brûlures d'estomac, des ulcères ou des hémorragies du tube digestif. Article rédigé par Georges Simmonds pour RT Flash CMAJ | | | |
| Des médecins et chercheurs du pôle de Chirurgie Cardiaque de l'Hôpital Marie Lannelongue, au Plessis-Robinson (92), ont développé une technologie innovante qui repousse les limites de préservation d’un cœur au cours d’une transplantation. Avec deux avantages majeurs : augmenter les chances de succès en évaluant la qualité du cœur et accroître le nombre de greffons disponibles en allongeant la durée de préservation du cœur prélevé au-delà de 4 heures. Voici les explications du Docteur Julien Guihaire, chirurgien cardiaque spécialisé en transplantation à l'Hôpital Marie Lannelongue (Groupe Hospitalier Paris Saint Joseph, Université Paris Saclay) : Principal défi à relever dans le domaine de la transplantation cardiaque : faire face à la pénurie d’organes. Aujourd’hui, « il y a en moyenne deux candidats receveurs compatibles pour un seul greffon cardiaque disponible », explique le Docteur Guihaire. Pour parer à ce manque de greffons, la solution au cours de ces dernières années a été de repousser les limites de sélection des greffons, lesquels proviennent de donneurs de plus en plus âgés. « L’âge moyen d’un donneur est de 50 ans passé, parfois même on va jusqu’à 65 ans, une procédure qui n’aurait jamais été envisagée il y a une quarantaine d’années », commente le chirurgien. « Le corollaire de cette extension de sélection, c’est de prélever des cœurs de pote ntiellement moins bonne qualité, chez des patients avec des comorbidités (tabac, hypertension…). De fait, on s’expose à de moins bons résultats de la transplantation. En France, le risque de défaillance cardiaque immédiate dans les suites de la transplantation, c’est-à-dire d’avoir un cœur qui ne repart pas correctement, est de l’ordre de 40 % ». Il est donc urgent de réfléchir à des solutions pour optimiser la qualité des organes et l’une d’elles est ce dispositif très innovant que viennent d’acquérir les équipes du pôle de Chirurgie Cardiaque de l’Hôpital Marie Lannelongue. « Cette machine dans laquelle on place le cœur permet de le faire rebattre et de le conserver plus longtemps que la méthode conventionnelle de préservation au froid dans une glacière », décrit le médecin transplanteur. Concrètement, il s’agit d’une machine transportable dans laquelle on va placer le cœur et le perfuser avec du sang oxygéné. Cela va permettre au cœur de battre, de reprendre une activité et ainsi de réduire la durée d’ischémie qui est critique en transplantation. Placé sur cette machine, le cœur peut ainsi être préservé pendant plusieurs heures. Alors qu’aujourd’hui, lorsque le cœur d’un donneur est prélevé, le greffon n’est plus perfusé et l’ischémie engendrée va détériorer l’organe. Pour prévenir les lésions, le cœur est arrêté, refroidi et conservé dans un liquide à 4°C pour son transport. Plus la durée d’ischémie du greffon est courte, plus grandes sont les chances de réussite de la greffe. Commence alors une véritable course contre la montre, avec un délai de moins de 4 heures à respecter pour faire repartir le greffon cardiaque sur le patient receveur, qui de fait peut limiter l’utilisation de certains organes notamment lorsque la durée de transport est supérieure à 3 heures. Prolonger la durée de préservation du cœur – jusqu’à 6, 8, 10 heures –, c’est donc augmenter la capacité de transplanter des organes jusqu’alors inexploitables, du fait de leur éloignement géographique. « Tout dernièrement, cette machine nous a permis d’aller prélever un cœur auprès d’un donneur qui se trouvait en théorie dans un hôpital géographiquement inaccessible pour nos équipes », explique le Docteur Guihaire. « Les CHU les plus proches n’avaient pas de receveur compatible. Sans la machine qui a permis de préserver l’organe pendant plus de 7 heures, le cœur aurait été perdu, alors qu’aujourd’hui le malade greffé va très bien », ajoute-t-il. Article rédigé par Georges Simmonds pour RT Flash Medscape | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|