| | Edito Stockage du CO2 : comprendre et utiliser les ressources de la Nature
On sait à présent, grâce à de nombreux travaux scientifiques solides et convergents, qu’il ne suffira pas de développer massivement les énergies renouvelables et de stabiliser notre consommation énergétique pour parvenir à réduire de moitié d’ici 2050 au niveau mondial les émissions humaines de CO2, condition absolument nécessaire pour limiter à deux degrés la hausse moyenne des températures. Pour atteindre cet objectif, il va également falloir parvenir à capturer et à stoker, d’une façon ou d’une autre, au moins le cinquième de nos émissions de nos CO2, c’est-à-dire de 8 à 10 gigatonnes de CO2 par an. Malheureusement, il faut bien admettre que les différentes technologies de capture et de stockage explorées jusqu’à présent n'ont pas tenu leurs promesses, car elles restent, pour la plupart d’entre elles, trop complexes à mettre en œuvre, pas assez efficaces en termes de rendements et trop onéreuses à déployer massivement. C’est pourquoi, face au défi climatique, les scientifiques se tournent à présent vers un champ de recherche trop longtemps négligé : celui des potentialités immenses de l’agriculture et des forêts et des océans en matière de capture et de stockage de carbone de l’atmosphère. Selon la FAO, l’organisation des Nations Unies pour l’alimentation et l’agriculture, les émissions de GES (Gaz à effet de Serre) liées à l’agriculture, aux forêts et à la pêche ont quasiment doublé au cours des cinquante dernières années. En 2014, elles représentaient 10 à 12 gigatonnes équivalent CO2, soit près du quart des émissions mondiales, bien plus que le secteur des transports et pratiquement autant que celui de la production d’énergie. La première source d’&eac ute;missions est l’élevage des ruminants, qui représente 15 % des émissions anthropiques de GES (7 milliards de tonnes de CO2 par an, l’équivalent des émissions des Etats-Unis). Vient ensuite l’utilisation massive des engrais de synthèse (environ 13 % de ces émissions, voir FAO). Sachant que la production mondiale de viande a été multipliée par quatre depuis un demi-siècle et dépasse à présent les 320 millions de tonnes par an, la FAO, ainsi que de nombreuses études scientifiques, préconise une diminution importante de notre consommation de viande, qui pourrait être avantageusement remplacée par la consommation de protéines végétales qui auraient un double avantage, puisque leur culture entraîne, à quantité égale, moins d’émissions de CO2 et que leur consommation régulière est meilleure pour la santé qu’une consommation excessive de viande. Sans vouloir imposer le végétarisme à tous les habitants de la planète, mais en diminuant de manière graduelle et raisonnable la consommation moyenne mondiale de viande par habitant de seulement 20% d’ici 2 050, il serait possible de stabiliser la consommation mondiale de viande à 300 millions de tonnes par an, ce qui aurait des effets très bénéfiques en matière de réduction des émissions de GES et de respect de l’environnement. En outre, plusieurs études ont également montré qu’en modifiant l’alimentation des bovins et en remplaçant simplement une petite partie de leurs aliments à base de maïs, et de soja par des grains de lin cuit, riches en oméga 3, de la luzerne ou du foin, il serait possible de réduire d’un tiers leurs émissions de méthane, un gaz à effet de serre (GES) 25 fois plus puissant que le CO2. Appliquée au niveau mondial, cette mutation dans l’alimentation des bovins pourrait permettre de réduire de 8 à 10%, sans diminution du parc global, les émissions de GES… Une étude, publiée en août 2019 par l’INRA (Institut National de Recherche Agronomique) montre de manière saisissante l’importance, largement ignorée jusqu’à présent, des modes de productions agricoles sur la capacité de stockage du CO2 par les sols. (Voir Rapport). Cette étude rappelle qu’en France, les sols et forêts représentent 38 % du stock total de carbone ; il n’est donc pas possible d’ignorer ce puissant levier pour agir plus efficacement contre les effets du changement climatique . Une étude canadienne, publiée en novembre dernier a montré pour sa part, de manière très étonnante, que les rivières glaciaires sont capables d'absorber du dioxyde de carbone (CO2) plus rapidement que les forêts tropicales. (Voir Eurekalert). Cette découverte est une véritable surprise pour les scientifiques, qui ont réalisé des prélèvements d’eau de fonte de glaciers sur l’île d’Ellesmere, dans le territoire canadien du Nunavut. Ces recherches ont montré que les rivières se trouvant dans les zones tempérées sont très émettrices de CO2 en raison de la décomposition de nombreuses matières organiques en leur sein. En revanche, les rivières glaciaires, qui, en raison de leur temp&eac ute;rature, sont moins propices au développement biologique, produisent bien moins de décomposition organique et de CO2. Cette étude a également montré que les énormes quantités de sédiments finement broyés, en provenance des glaciers, comme le silicate et le carbonate, se mélangent aux eaux de fonte et entretiennent de puissantes réactions chimiques qui absorbent de grandes quantités de CO2. Il en résulterait que les rivières glaciaires auraient une capacité de captage et de stockage du CO2 tout à fait considérable et très sous-évaluée. L’étude précise même qu’en 2015, pendant la période de la fonte des glaces, les glaciers ont fondu trois fois plus qu'en 2016, ce qui a provoqué une séquestration de CO2 par les rivières glaciaires deux fois plus élevée que celle de la forêt amazonienne ! Une autre étude, publiée en décembre dernier mérite également d’être évoquée : ce travail, réalisé par des scientifiques participant au projet européen BiodivERsA, montre que les petits bois de moins d'un hectare stockent plus de carbone, par unité de surface, dans le sol, que les grandes forêts.(Voir Wiley). On sait, grâce aux inventaires réguliers de l’Institut national de l’information géographique et forestière (IGN), que la France possède aujourd’hui deux fois plus de forêts qu’il y a cent ans. Mais ces inventaires ne prennent pas en considération les bois, très nombreux dans notre pays, dont la superficie est inférieure à 5.000 m². Dans ce travail, les scie ntifiques ont analysé les données physiques, chimiques et biologiques de 224 zones boisées européennes. Ils ont alors eu la surprise de constater qu’en dépit d’une plus faible biodiversité, les petits bois sont capables de stocker davantage de carbone. De manière encore plus intéressante, cette étude montre que cette capacité de capture et de stockage du CO2 est d’autant plus grande que ces petits bois se trouvent situés au sein de paysages agricoles. En effet, du fait de leur taille réduite, ces espaces boisés reçoivent plus de chaleur et de lumière, et sont donc moins humides et plus chauds que les grandes forêts. Ils bénéficient en outre de ressources nutritionnelles plus grandes, grâce à leur proximité avec les terres agricoles. Du fait de ces conditions favorables, ces petits bois produisent une couverture végétale et une biomasse sensiblement plus importantes, ce qui, in fine, permet un stockage de carbone dans le sol, par l e biais de la matière organique. La troisième étude à méditer est celle publiée par le FMI en décembre dernier. Elle montre que les baleines jouent un rôle majeur dans l’absorption du CO2 présent dans l’atmosphère, en agissant comme de véritables puits de carbone dans tous les océans du globe (Voir IMF). Ces recherches ont montré que les baleines, au cours de leur longue existence qui peut atteindre un siècle, emmagasinent jusqu’à 33 tonnes de gaz carbonique dans leur masse graisseuse, soit plus de trois millions de tonnes, pour l’ensemble de l’espèce. Compte tenu des services qu’elles rendent à la fois au climat et à l’environnement, les baleines aurait, selon le FMI, une valeur marchande individuelle de 2 millions de dollars, ce qui représente une valeur totale pour l’espèce de l’ordre de 1 000 milliards de dollars. Mais cette étude du FMI va plus loin et précise que cette estimation reste largement sous-évaluée car elle ne prend pas en compte les matières fécales des cétacés, très riches en azote en phosphore et en fer; ce qui leur permet d’alimenter la production de phytoplancton. Or, cet organisme végétal microscopique, on le sait à présent, absorbe à lui seul plus de 40% des réserves de CO2 présentes à la surface de la Terre, soit quatre fois plus que la forêt amazonienne… Au total, ces travaux très riches d’enseignements montrent que, grâce aux baleines, et à la production induite de phytoplancton, ce sont pas moins 1,7 milliard de tonnes de CO2 qui sont enlevées de l’atmosphère chaque année, soit l’équivalent de la moitié des émissions annuelles de CO2 de l’Europe. Partout dans le Monde, les recherches s’intensifient pour parvenir, en comprenant mieux les extraordinaires mécanismes du vivant, à capter et à stocker de manière propre le CO2 excédentaire présent dans l’atmosphère. En France, la société Arkolia a par exemple développé Arkométha, une technologie en méthanisation sélectionnée par le Programme d'investissements d'avenir (PIA). « L'innovation consiste à capter le CO2 de l'air et à produire de l'hydrogène pour, in fine, fabriquer du méthane pur, via une réaction biologique réalisée par des bactéries placées dans une cuve », explique Laurent Bonhomme, fondateur d’Arkhométha. L’année prochaine, cette technologie, qui intègre une source d'électricité renouvelable, un électroly seur alimenté par cette source d'énergie et un dispositif de capture de dioxyde de carbone atmosphérique, sera expérimentée dans le Gard, avec le soutien de la région Occitanie. De son côté, l'Américain Hypergiant Industries, spécialiste de l'intelligence artificielle, a développé un bioréacteur à microalgues urbain d’une efficacité inédite, grâce au recours à l’IA qui permet d’en optimiser le fonctionnement ; la société annonce que son mobilier de deux mètres de haut et 0,9 m de profondeur, serait en capacité de piéger 1,5 tonnes par an de CO2, soit l'équivalent d'une forêt de 4 000 m2. Par ailleurs, des chercheurs américains du Salk Institute ont réussi il y a quelques mois une percée majeure dans ce domaine de la capture naturelle du CO2. Ils sont parvenus à modifier le gène de certaines plantes, pour obtenir des racines plus grandes et plus profondes, ce qui leur permet de stocker plus de CO2. D’après les scientifiques, cette technique serait applicable à près de 800 milliards d’hectares de cultures dans le monde, soit 45% des terres cultivées dans le Monde. .(Voir Cell) et permettrait, utilisée à grand échelle, d’absorber plus de la moitié des émissions humaines de CO2.. Une autre avancée scientifique tout à fait remarquable a été accomplie fin 2019 par des chercheurs de l’Institut Weizmann de Science. Ces derniers, au terme de dix ans de recherche, ont réussi à produire des bactéries modifiées génétiquement qui peuvent vivre en se nourrissant de dioxyde de carbone, plutôt que de sucre (Voir Weizmann). Pour contraindre ces bactéries de passer du sucre au dioxyde de carbone, ces chercheurs les ont progressivement privé de sucre (glucose), remplacé petit à petit par du dioxyde de carbone et du formate. Au bout d’un an, certaines de ces bactéries avaient totalement substitué le CO2 au sucre dans leur métabolisme, en modifiant l’expression de seulement 11 g ènes. Cette avancée extraordinaire pourrait permettre de réduire la quantité de CO2 en excès dans l’atmosphère, mais également de produire des biocarburants neutres en matière de bilan-carbone. L’ensemble des découvertes et de ces travaux scientifiques montrent qu’il est tout à fait possible de capter et de stocker de manière massive, efficace et durable des quantités considérables de CO2, à condition de savoir actionner de manière judicieuse les différents leviers que nous offrent la Nature, par le biais des pratiques agricoles, de l’utilisation des sols, de l’exploitation des bois et forêts, de la protection des océans, ou encore de l’exploitation à large échelle des extraordinaires capacités biochimiques des micro-organismes et bactéries. Soyons en bien conscients, face au défi climatique immense qui est devant nous, les solutions purement technologiques ne suffiront pas, et c’est en actionnant tous ces leviers très puissants que j’ai évoqués, et en comprenant mieux ces mécanismes subtils et intriqués du vivant, qui sont à l’œuvre dans notre environnement depuis des milliards d’années, que nous parviendrons, si nous nous en donnons les moyens humains et financiers, à limiter drastiquement nos émissions globales de gaz à effet de serre d’ici le milieu de ce siècle et éviter des catastrophes aux conséquences incalculables pour nos sociétés et pour notre planète. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | 5G ou Wi-Fi 6, même combat. Pour obtenir plus de débit, on utilise la technologie dite du beamforming qui consiste à focaliser en plusieurs faisceaux le signal de l’émetteur vers le récepteur, au lieu d’arroser tout l’environnement sans distinction. Le problème, c’est que cela nécessite de multiplier le nombre d’antennes et de concevoir des récepteurs imposants. Ce qui pose de fortes contraintes en matière de miniaturisation, d’intégration et de coût dans les appareils. Conscient du paradoxe insoluble qui requiert de multiplier le nombre d'antennes dans des périphériques toujours plus compacts, le MIT a fait un pas de côté et opté pour une autre voie. Plutôt que de tout miser sur l'émetteur (le routeur Wi-Fi, par exemple) et le récepteur (votre smartphone, toujours par exemple) pourquoi ne pas mettre à contribution l'environnement en y déposant des antennes qui aideront à la propagation du signal. Un groupe de chercheurs du MIT a réussi à mettre sur pied un système prometteur baptisé RFocus. Leur prototype se compose de deux surfaces intelligentes ressemblant à un assemblage de radiographies. Les petits rectangles mis côte à côte renferment 3200 antennes. Elles sont passives dans le sens où elles n’émettent aucun signal propre. Elles se contentent de diriger le signal de l’émetteur en le laissant passer quand elles sont transparentes ou en le réfléchissant comme un miroir quand elles deviennent opaques. Et c’est un logiciel qui les contrôle. Cela permet de focaliser le signal vers le récepteur et donc d’améliorer sa qualité. En bout de chaîne, la puissance du signal aurait été multipliée par dix dans les conditions du laboratoire. Les antennes ne devant pas embarquer d’électronique sophistiquée, elles ne coûteraient chacune que quelques centimes. En plus d’être une solution bon marché, le RFocus permettrait de se libérer des contraintes d’intégration et d’améliorer la qualité de réception de petits terminaux. Enfin, c’est un système basse consommation, car les antennes extérieures ne sont pas connectées via du filaire à l’émetteur. Article rédigé par Georges Simmonds pour RT Flash MIT | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Spot, le robot quadrupède de Boston Dynamics, travaille depuis vendredi sur le chantier de construction de la Place Ville Marie, à Montréal. Il s’agit de la première fois que ce robot, qui a fait plusieurs fois le tour du web dans des vidéos virales, est utilisé dans un tel contexte. Il a été loué à l’entreprise Pomerleau pour une période de six mois. Spot peut transporter jusqu’à 14 kg sur son dos, se relever quand il tombe et travailler à des températures allant de -20 à 45 °C. Il peut se déplacer selon les directives qu’on lui donne, éviter les obstacles et maintenir son équilibre dans des circonstances extrêmes. Malgré sa capacité à transporter des charges, le robot est principalement utilisé par Pomerleau pour accéder à des zones plus confinées et dangereuses du chantier. À l’aide d’un logiciel spécialisé et de la caméra à 360 degrés fixée sur son dos, Spot prend des photos de différentes parties du chantier de la Place Ville Marie dans le but de faire un suivi du projet. Pendant les premiers jours, une personne accompagnera Spot le temps qu’il se familiarise avec son nouvel environnement. Il pourra ensuite accomplir son travail de manière autonome. Cette initiative s'inscrit dans la mission de Pomerleau, qui consiste à identifier, à exploiter et à promouvoir l'innovation. Notre industrie est en pleine mutation, et nous anticipons que la robotique y jouera un rôle important, affirme Ian Kirouac, chef de la transformation à Pomerleau, par voie de communiqué.La porte-parole de l’entreprise, Aurore De Vera, précise en entrevue que Pomerleau voit la robotique comme un outil destiné à faciliter le travail de son personnel et à améliorer sa sécurité plutôt que de le remplacer. Article rédigé par Georges Simmonds pour RT Flash RC | | ^ Haut | |
|
| | | En Australie, les sociétés AGL et Vena Energy Australia ont annoncé dernièrement leur projet de construire un système de stockage géant par batteries dans l'État du Queensland. Le système de batteries lithium-ion aura une capacité de 100 MW et pourra stocker jusqu'à 150 MWh d'électricité. Il doit être connecté à un parc photovoltaïque de 1 000 MW que Vena Energy prévoit de mettre en service en 2021 (Wandoan South). Ce projet, dont le coût avoisine 120 millions de dollars, est présenté par Vena Energy comme « une étape importante dans la modernisation de l'approvisionnement électrique du Queensland et pour améliorer la fiabilité du réseau ». Il a vocation à servir d'exemple pour faciliter le déploiement de filières renouvelables à production intermittente, alors que les incendies récents ont contribué à alimenter le débat et les critiques sur le mix très carboné de l'Australie. À près de 200 km au nord d’Adélaïde (Australie-Méridionale), Tesla avait déjà installé fin 2017 un système de stockage qualifié de « batterie géante » (composé de plusieurs centaines de ses systèmes de batteries stationnaires « Powerpack »). Les batteries de Tesla sont connectées au parc éolien voisin d’Hornsdale et doivent permettre d'en compenser la production intermittente, en absorbant les surplus d’électricité par moments et en les restituant sur le réseau lors des périodes de forte demande. Cette installation occupe une surface d’un hectare, soit près de 30 % de plus qu’un terrain de football. Elle dispose actuellement d'une puissance de 100 MW et peut stocker jusqu’à 129 MWh d’électricité. En novembre 2019, Neoen a annoncé que le système de stockage allait faire l'objet d'une expansion pour augmenter de moitié sa capacité de stockage (+ 50 MW / + 64,5 MWh) d'ici à mi-2020. Article rédigé par Georges Simmonds pour RT Flash VE | | | |
| Les halles de fabrication, les terminaux d'aéroport ou les immeubles de bureaux sont fréquemment équipés de chauffages «anticipateurs». Ils fonctionnent sur la base de scénarios préprogrammés et permettent à l'exploitant de réaliser de très sensibles économies. Mais pour ce qui concerne les appartements ou les maisons individuelles, la programmation - nécessairement sur mesure - s'avère trop coûteuse. L'été dernier, un groupe de chercheurs de l'Empa a montré que les commandes de chauffage et de rafraîchissement pouvaient se passer de scénarios en tirant leurs propres enseignements des données des semaines et des mois précédents. Plus besoin de programmateurs professionnels. Les familles et les célibataires pourront bientôt profiter de cette technique. L'expérience décisive a été effectuée dans le bâtiment d'essais NEST. C'est l'unité «UMAR» (Urban Mining and Recycling) qui offrait en l'occurrence les meilleures conditions : un vaste séjour/cuisine flanqué à gauche et à droite d'une chambre d'étudiant de 18 m2, le tout orienté est-sud-est, sur le soleil du matin. Pour calculer l'énergie utilisée par chaque pièce, l'expérience s'est basée sur la position des vannes de réglage. Ne voulant pas attendre la période chauffée, le chef de projet Felix Bünning et son collègue Benjamin Huber ont lancé une expérience de rafraîchissement dès juin 2019. Selon la consigne, les deux chambres ne devaient pas dépasser 25°C le jour et 23°C la nuit. Une vanne thermostatique habituelle permettait de régler l'une des chambres, alors que l'autre était sous contrôle de la commande expérimentale mise au point par l'équipe de Bünning et Huber. Le logiciel d'intelligence artificielle disposait de données couvrant les dix derniers mois ainsi que les prévisions en cours de MétéoSuisse. Le résultat s'est révélé clair et net : le chauffage-rafraîchissement intelligent a mieux respecté la consigne tout en consommant 1/4 d'énergie en moins que le système mécanique. Cela s'explique surtout par le fait que, le matin, lorsque le Soleil brillait à travers les fenêtres, le système enclenchait le rafraîchissement de manière préventive. Le thermostat mécanique de la chambre d'en face, lui, ne réagissait que lorsque la chaleur avait traversé le plafond, trop tard, trop brusquement, trop fort. En novembre 2019, qui fut froid, peu ensoleillé, pluvieux et venteux, Bünning et Huber ont renouvelé l'expérience. Il ne s'agissait plus de rafraîchir mais de chauffer les deux chambres. A l'heure où nous rédigeons cet article les résultats sont en cours d'évaluation. Bünning est confiant que cette fois encore, le réglage anticipateur va marquer des points. L'équipe prépare déjà l'étape suivante : « Pour tester le système sur le terrain et en grand, nous avons choisi un immeuble de 60 appartements. Nous équiperons quatre appartements de nos commandes intelligentes de chauffage et rafraîchissement.» Il leur faudra préalablement charger le logiciel - qui tournait sur le cloud - dans un petit bloc de commande local. « Le bloc remplacera le thermostat des appartements test », explique Felix Bünning, impatient de voir les résultats. « Je crois que le réglage par machine learning présente un grand potentiel. Nécessitant peu de moyens et des données faciles à réunir, il peut être monté sur des chauffages existants et leur permettre d'économiser de l'énerg ie ». Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Et si un navire pouvait devenir neutre en carbone tout en continuant à utiliser un moteur thermique et des énergies fossiles ? Le tout en cryogénisant ses émissions de CO2 ? C’est le pari, un peu fou - en tout cas sur le papier -, que s’est lancé l’équipe danoise de Decarbonice, regroupant des scientifiques et dirigée par Henrik Madsen, ancien patron de la société de classification DNV-GL. Et rejoint par d’imposants partenaires comme les armements Sovcomflot, Teekay, BWGroup, Knutsen, le minier Vale ou encore le chantier naval coréen DSME. « Ce qui se passe actuellement avec l’entrée en vigueur du Sulfur Cap est très intéressant. On voit les industriels opter soit pour des solutions pré-combustion, c’est-à-dire des combustibles comme le GNL ou les solutions désulfurées, soit post-combustion avec les scrubbers. Pour le CO2, actuellement on n’imagine que des solutions pré-combustion, c’est-à-dire de l’électricité ou de l’hydrogène. Ce que nous voulons proposer c’est une solution post-combustion, c’est-à-dire utilisable avec des moteurs actuels et pourtant compatible avec les objectifs de réduction de carbone », déclare Henrik Madsen, rencontré récemment à Copenhague par Mer et Marine. Pour cela, son équipe a lancé ce projet « basé sur une technologie de cryogénisation déjà bien maîtrisée à terre, sans aucun composant chimique et très facile à mariniser ». Les émissions des navires sont capturées puis refroidies et transformées en glace sèche. La température de refroidissement va dépendre du combustible : pour les émissions de GNL (un peu moins concentrées en CO2) ce sera -120 degrés, pour le fuel lourd -110. Les autres sortes de combustibles (éthanol, méthanol, GPL) se situent entre les deux. La glace sèche va être moulée dans un « véhicule » d’environ 2 tonnes taillé en forme de torpille. Chaque tonne de fuel ou GNL consommée produit environ trois tonnes de cette glace. L’idée est ensuite de larguer ces véhicules de glace sèche automatiquement depuis le navire. Comme la glace sèche est plus lourde que l’eau, le véhicule va descendre rapidement vers le fond à la vitesse de 20 mètres par seconde. Il atteint donc la profondeur de 500 mètres, minimale pour une telle opération, en moins de 30 secondes. Sa forme, qui assure son hydrodynamique durant la descente, va ensuite lui permettre de pénétrer dans les sédiments des fonds marins. Une fois pénétrée dans les sédiments, la glace sèche va commencer à fondre en surface et le CO2 liquide va alors réagir avec l’eau pour former un hydrate de CO2. Ce dernier va à son tour réagir avec les sédiments pour former une coquille stable autour du restant du CO2 liquide. Un processus comparable avec la production de béton. L’hydrate de CO2 est stable dans ces conditions, au milieu des sédiments, où la pression est élevée et la température très basse. Ce processus ne relargue pas d’acide et pourrait également servir à « emprisonner » certains dioxydes d’azote. En revanche, il ne fonctionne pas sur le soufre. « Plus de 85 % des océans ont une profondeur de plus de 500 mètres. Et 70 % d’entre eux sont des plaines abyssales dont le sol est sédimentaire. Cela donne donc une très large surface où nos véhicules de glace peuvent être largués, puis pénétrer et être complètement incorporés dans les fonds où le CO2 sera stocké de manière permanente sous forme d’hydrate. Bien sûr, le mécanisme ne peut pas fonctionner partout : il faut éviter les rifts, les volcans sous-marins, les fonds rocheux, les câbles, les zones protégées. Alors pour cela, le navire devra être équipé d’un sondeur très performant relié au système de cryogénisation et qui pourra le stopper quand nécessaire. Quand on ne peut pas larguer le véhicule, celui-ci n’est pas produit ». Selon Henrik Madsen, sur un voyage océanique, cela permettrait une baisse de 70 à 80 % des émissions de CO2. « Avec un système qui consommera environ 10 % d’énergie supplémentaire pour une propulsion fuel et 7 % pour une motorisation GNL ». L’équipe de Decarbonice est encore au stade du dimensionnement du projet et n’a pas encore prévu l’installation d’un modèle test. Mais les choses avancent vite, du moins d’un point de vue industriel. « Avec nos partenaires, nous allons commencer par une étude de faisabilité et ensuite nous allons nous lancer dans la partie juridique ». Parce qu’évidemment, un tel système va nécessiter la modification de plusieurs conventions internationales, au premier rang desquels celles de Montego Bay, Marpol, le protocole de Londres sur la séquestration en milieu marin… « Nous estimons qu’ensuite, si nous avons les autorisations, nous pourrons être capables d’installer le système, entièrement automatisé, dans les trois ans suivants ». Henrik Madsen n’a pas, en revanche, encore une idée du coût du système et de son installation. « Nous savons que notre système de mélange avec les sédiments permet un stockage sûr et permanent, contrairement à un simple dépôt sur le fond qui va finalement relarguer le CO2 dans l’eau puis dans l’atmosphère. Nous estimons que cette solution, qui pourrait être rétrofitée sur la majorité des navires océaniques, permettrait de réduire de 70 à 80 % le milliard de tonnes de gaz à effet de serre émis chaque année par le shipping ». Article rédigé par Georges Simmonds pour RT Flash Mer et Marine | | | |
| Comment mieux gérer l'eau dans l'agriculture et l'industrie européennes du XXIe siècle ? Selon des chercheurs impliqués dans un projet européen appelé nextGen, une partie de la réponse se trouve aux Pays-Bas, dans l'abbaye cistercienne Notre-Dame de Koningshoeven datant du XIXe siècle. Sur place, à Berkel-Enschot, des moines trappistes brassent de la bière depuis 1884. Aujourd'hui, le site produit quelque 145.000 hectolitres par an avec une moyenne d'environ 10.000 bouteilles à l'heure. Une activité qui impacte l'environnement puisque la brasserie génère 15 m³ d'eau usée par heure. "On fait la prière sept fois par jour, on commence à 4h du matin, on remercie Dieu pour la création qui est belle et propre et en même temps, on est dans un processus qui est en train de polluer," reconnaît Frère Isaac, directeur de la brasserie. "La prochaine étape était de purifier l'eau afin de la redonner à la nature et le but final, ce sera d'aboutir à une eau qui est totalement potable," indique-t-il. 438 m³ d'eaux usées issues de la brasserie peuvent être traités chaque jour à proximité, dans une serre spéciale grâce à 200 espèces végétales. Sous des bioréacteurs, l'eau passe entre les racines des plantes où 3000 types de bactéries aident à la nettoyer. Bientôt, l'installation permettra également de retirer de cette eau, les matières carbonées, azotées et phosphorées. Ces efforts sont étudiés de près dans le cadre d'un projet de recherche européen dont la coordination est assurée à Nieuwegein (Pays-Bas). Son objectif : améliorer la gestion des ressources en eau. Les scientifiques veulent élargir le périmètre de l'eau dans l'économie circulaire et contribuer au développement de nouvelles approches, solutions et modèles d'activité. "Nous envisageons d'innombrables opportunités," indique Jos Frijns, coordinateur du projet nextGen et ingénieur en environnement chez KWR, autre acteur impliqué, "par exemple, réutiliser l'eau, tirer de l'énergie de l'eau - cela peut être de la chaleur ou du biogaz -, mais aussi récupérer les nutriments qui y sont présents." Article rédigé par Georges Simmonds pour RT Flash Euronews | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Les flavonoïdes constituent la plus importante catégorie de polyphénols, des molécules très réputées pour leurs vertus antioxydantes. On savait déjà que ces flavonoïdes avaient un effet protecteur sur la cœur et les artères. Mais selon des chercheurs de l’Université Rush à Chicago, ils pourraient aussi aider à lutter contre le risque de démence. Leur étude a porté sur 921 personnes âgées en moyenne de 81 ans et ne souffrant pas de démence. Les participants ont ainsi rempli chaque année un questionnaire sur la fréquence à laquelle ils mangeaient certains aliments, leur niveau de scolarité, le temps passé à pratiquer des activités physiques, le temps consacré à la lecture…Ils ont ensuite été divisés en 5 groupes selon leur consommation de flavonoïdes. Résultat : ceux qui en mangeaient le plus présentaient 48% de risque en moins de développer la maladie d’Alzheimer par rapport à ceux qui en consommaient le moins. Mais les chercheurs sont allés encore plus loin. Ils ont séparé les sujets selon les flavonoïdes qu’ils privilégiaient : l’isorhamnétine (présent dans les poires, l’huile d’olive, le vin et la sauce tomate), le kaempférol (fraises, chou frisé, haricots, thé, épinards et brocoli), la myricétine (thé, vin, chou frisé, oranges et tomates) et la quercétine (chou frisé, pommes et thé). Ainsi, les personnes qui avaient un apport élevé en isorhamnétine étaient moins susceptibles de développer la maladie (- 38%). Même résultat pour la myricétine. Mais pour le kaempférol, le risque était abaissé de 51% ! En revanche, aucun lien n’a été établi avec la quercétine. Vous l’aurez compris, pour mettre toutes les chances de votre côté, misez sur le chou frisé et le thé, tous deux contenant les 3 flavonoïdes bienfaiteurs.« Manger plus de fruits et légumes et boire plus de thé pourrait être un moyen assez peu coûteux et facile d’aider les gens à lutter contre la démence » concluent les auteurs. Article rédigé par Georges Simmonds pour RT Flash RU | | | |
| Sanofi vient d’annoncer que l’essai de phase IIb consacré à l’évaluation de son inhibiteur BTK (tyrosine kinase de Bruton) expérimental (SAR442168), une petite molécule sélective à pénétration cérébrale, a atteint son critère d’évaluation principal. Dans le cadre de cet essai, le SAR442168 a significativement réduit l’activité de la sclérose en plaques (SEP) mesurée par imagerie par résonance magnétique (IRM). Le SAR442168 a par ailleurs été bien toléré et aucun nouveau signal de sécurité n’a été observé. L’inhibiteur BTK est réputé moduler les cellules immunitaires adaptatives (activation des lymphocytes B) et innées (cellules microgliales du SNC) impliquées dans la neuro-inflammation au niveau du cerveau et de la moelle épinière. « La grande majorité des personnes atteintes de sclérose en plaques accumulent divers handicaps au cours de leur maladie. Nous pensons que notre inhibiteur BTK a le potentiel de transformer le traitement de la SEP. Cette molécule pourrait être le premier médicament ciblant les lymphocytes B qui non seulement inhibe le système immunitaire périphérique, mais franchit également la barrière hémato-encéphalique et exerce un effet suppresseur sur les cellules immunitaires qui ont migré dans le cerveau, tout en ayant un effet modulateur sur les cellules microgliales du cerveau impliquées dans la progression de la SEP », a déclaré le docteur John Reed, Ph.D., Responsable Monde de la Recherche et Développement de Sanofi. « Les résultats cliniques obtenus par notre inhibiteur BTK à pénétration cérébrale — dont le développement s’appuie sur le solide héritage de Sanofi dans la sclérose en plaques — sont encourageants et nous allons rapidement lui consacrer des essais cliniques pivots. » Quatre essais cliniques de phase III vont être consacrés à l’étude des effets du SAR442168 sur le taux de rechute de la SEP, la progression des handicaps et les lésions sous-jacentes du système nerveux central. Des essais de phase III dans le traitement des formes récurrentes-rémittentes et progressives de la SEP sont prévus et devraient être lancés au début du deuxième semestre de cette année. Environ 1,2 million de personnes sont atteintes de SEP aux États-Unis et en Europe. La SEP est une maladie chronique imprévisible qui s’attaque au système nerveux central. Malgré les traitements actuellement disponibles, de nombreux patients accumulent divers handicaps et un patient sur quatre présente une forme progressive de la maladie contre laquelle il existe peu, voire aucun traitement. Article rédigé par Georges Simmonds pour RT Flash Mypharma | | | |
| La carnosine est une molécule qui possède de nombreuses activités protectrices, notamment celle de lutter contre un produit toxique lié au métabolisme du glucose, le méthylglyoxal. Les cellules cancéreuses privilégient le glucose comme carburant (ce qui permet de les visualiser par PETscan) et produisent beaucoup plus de méthylgyoxal que les cellules normales. Le méthylgyoxal, aujourd’hui considéré comme un onco-métabolite, c’est-à-dire un composé qui favorise le développement des cancers, permet notamment aux cellules cancéreuses d’échapper aux traitements ciblés, les plus fréquemment administrés aux patients souffrant de cancer du colon avancé, tel que le Cetuximab. Les chercheurs ont montré que la carnosine administrée à doses non toxiques à des souris, a non seulement ralentit très significativement l’évolution de tumeurs du colon humain devenues résistantes au Cetuximab, mais surtout rétablit leur sensibilité à ce médicament. Cette résistance apparait très souvent chez les patients atteints de cancers du côlon avancé, ce qui laisse peu de possibilité de traitement. Le cancer du côlon est le troisième cancer le plus fréquent dans notre pays mais le tueur numéro deux. Les chances de survie sont très réduites lorsque les cellules ont formé des métastases dans le foie. Avec plus de 9000 cancers du côlon diagnostiqués chaque année (24 par jour), il provoque 9 morts chaque jour en Belgique. Les résultats publiés dans Cell Reports par l’équipe du Laboratoire de Recherche sur les Métastases au GIGA-Cancer (Université de Liège) ouvrent des perspectives encourageantes afin d'aider les patients à mieux combattre ce cancer. Les retombées pratiques pourraient assez rapidement bénéficier aux patients (après des études cliniques réalisées sur des patients) car la carnosine est une substance non toxique déjà administrée aux patients diabétiques pour réduire les complications de cette maladie. L’équipe du Dr Bellahcène avait d’ailleurs montré précédemment que la carnosine possédait des activités anti-métastatiques dans les cancers du sein triple négatifs. Des résultats préliminaires encourageants montrent aussi une activité contre d’autres types de cancers. Article rédigé par Georges Simmonds pour RT Flash UL | | | |
| Ces 15 dernières années, le cancer du poumon le plus fréquent (adénocarcinome) a bénéficié d’avancées thérapeutiques importantes : les progrès de la biologie moléculaire ont permis de comprendre qu’une partie de ces tumeurs étaient résistantes à la chimiothérapie conventionnelle en raison d’altérations génétiques, telles que celles affectant les gènes EGFR (la plus fréquente) ou ALK. De nouveaux traitements ont alors été développés pour combattre la maladie : il s’agit d’inhibiteurs de tyrosine kinaseskinasesEnzyme capable de transférer un groupement phosphate d'une molécule à une autre pour réguler son activité. (ITK), comme le géfitinib ou l’erlotinib, ciblant les cellules porteuses de ces mutations. Malheureusement, l’efficacité de ces médicaments est souvent transitoire car de nouvelles mutations peuvent apparaître dans les cellules tumorales. En cause, l’incapacité de cette première génération de molécules à bloquer totalement l’activité de l’EGFR. Celui-ci aurait une activité résiduelle qui donne aux cellules la capacité d’échapper au traitement en développant une nouvelle mutation. D’autres médicaments, plus récents, ont été développés pour contrer le phénomène, comme l’osimertinib. Mais le même mécanisme se produit, permettant aux cellules tumorales de développer de nouvelles résistances. Comment rompre ce cercle vicieux ? C’est la question que se sont posés des chercheurs de l’Institut de recherche en cancérologie de Montpellier. Leur hypothèse : en bloquant l’activité résiduelle de l’EGFR, il pourrait être possible de lever la résistance au traitement. L’équipe d’Antonio Maraver qui a mené ces travaux a utilisé différents dispositifs expérimentaux : à partir de modèles murins de cancer du poumon, elle a étudié quelle était la cascade cellulaire activée en aval de l’activité résiduelle d’EGFR. Il est apparu que la voie Notch était déterminante : "La signalisation Notch est connue pour être impliquée dans la différenciation cellulaire de nombreux types cellulaires, explique le chercheur. Elle pourrait être déterminante dans le développement de nouvelles mutations sous traitement par géfitinib". L’équipe a alors vérifié qu’il était possible de lever la résistance au géfitinib en lui associant un inhibiteur de la voie Notch. Les chercheurs ont observé que les deux traitements combinés avaient une action synergique sur la tumeur et évitaient le développement de nouvelles mutations. Ces travaux ont ensuite été reproduits sur des échantillons tissulaires issus de patient atteints de cancer du poumon. Enfin, la même démarche expérimentale a pu être suivie concernant l’osimertinib : elle a permis de montrer que la résistance à ce dernier pouvait également être levée en y associant un inhibiteur de la voie Notch. Comme le précise Antonio Maraver, "il semble donc que l’on puisse lever la résistance aux ITK en les combinant avec des inhibiteurs de la voie de signalisation Notch, c’est-à-dire en associant un mécanisme d’action spécifique des oncogènesoncogènesGène dont l’expression favorise l’apparition de cellules cancéreuses. à un second qui cible une voie non oncogénique, en l'occurrence la voie Notch". Cette observation doit maintenant être confirmée en clinique. "Nous voulons maintenant conduire un essai clinique de phase 1, afin de vérifier l'efficacité d’une telle association médicamenteuse chez des patients souffrant d’adénocarcinome pulmonaire lié à l'EGFR et devenu résistant à l'osimertinib". Une perspective d’autant plus envisageable qu’une molécule inhibitrice de la voie Notch, le nirogacestat, a déjà fait la preuve de son efficacité et de sa sécurité chez l’Homme… Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| En quoi consommer régulièrement du yaourt peut aider à réduire le risque de cancer du sein ? Cette équipe de l’Université de Lancaster pose et répond à cette étonnante question : une des causes du cancer du sein pourrait être une inflammation déclenchée par des bactéries nocives. Aussi, consommer du yaourt nature quotidiennement pourrait être un remède préventif potentiel simple et peu coûteux. Une hypothèse discutée dans la revue Medical Hypothèses. L’auteur principal, le Docteur Rachael Rigby de l'Université de Lancaster, qui soutient cette hypothèse d’une inflammation déclenchée par des bactéries nocives, rappelle que l’idée est appuyée par des preuves disponibles de la littérature. En particulier, via le lien entre allaitement maternel et réduction du risque de cancer du sein : « Nous savons maintenant que le lait maternel n'est pas stérile et que l’allaitement modifie la microflore du sein ». L’allaitement réduit le risque de cancer du sein de 4,3 %, pourquoi pas le yaourt ? Bactéries, inflammation et risque de cancer : environ 10 milliards de cellules bactériennes dans le corps humain : si la plupart sont inoffensives, certaines bactéries créent des toxines qui déclenchent l'inflammation dans le corps. L'inflammation chronique détruit les germes nocifs mais elle peut également entraîner des dommages : ainsi, l’une des affections inflammatoires les plus courantes, la parodontite, a déjà été liée au cancer de la bouche, de l'œsophage, du côlon, du pancréas, de la prostate et du sein. Dans le cas du sein, les cellules souches qui se divisent pour reconstituer la muqueuse des canaux mammaires sont influencées par la microflore, et certaines bactéries de la microflore ont déjà été documentées comme liées à une augmentation du risque de développement du cancer (en particulier du côlon et de l'estomac). Le yaourt contient des bactéries bénéfiques de fermentation du lactose similaires à celles présentes dans les seins des mères qui ont allaité. Ces bactéries qui fermentent le lactose se trouvent en forte concentration dans le lait maternel et dans les canaux mammaires des femmes qui allaitent, et cela pendant une certaine période après la lactation. L’hypothèse est donc que ces bactéries du yaourt seraient tout aussi protectrices que les bactéries liées à l'allaitement. Article rédigé par Georges Simmonds pour RT Flash Science Direct
| | | |
| Les brûlures font partie des douleurs les plus importantes qu’un être humain puisse subir. Et les soigner est encore plus compliqué. Elles sont facilement sujettes aux infections et la greffe de peau est l’une des seules façons de les traiter. Mais un nouveau procédé, fonctionnant comme une imprimante 3D, permettrait à l’avenir de traiter immédiatement la brûlure. Cet outil fait la taille d’une boîte à chaussure et pèse moins d’un kilo. C’est une imprimante de peau 3D portable qui dépose des couches de tissu cutané sur les brûlures et autres blessures. D’après cette étude, elle applique un mélange de collagène (protéine la plus abondante dans la peau) et fibrine (protéine nécessaire à la cicatrisation de la peau). Dans le Smithsonian Magazine, Axel Guenther, professeur en ingénierie à l’Université de Toronto a détaillé : “L’analogie, c’est un distributeur de ruban adhésif, où au lieu d’un rouleau de scotch”, c’est une sorte de tissu organique qui est collé sur la peau. Pour le moment, ce procédé a été testé avec succès sur des cochons. Mais d’après les scientifiques, il faudra attendre des années pour faire des essais sur des humains. Par la suite, les chercheurs devront travailler en collaboration avec les chirurgiens concernés pour que le système réponde parfaitement à leurs besoins. Cette procédure a de nombreux avantages. Les greffes de peau “traditionnelles” ne sont pas toujours possibles si les blessures sont trop étendues et il y a des risques d’infection. D’autres techniques de greffes sont soit très chères, soit temporaires ou doivent mettre des semaines pour être créées en laboratoire. Le principal problème qui se pose encore pour cette imprimante 3D est qu’elle devra être capable de résister aux infections. Malgré tout, le Docteur Palmer Q. Besseyn, chirurgien général au New York-Presbyterian Hospital-Columbia and Cornell, estime que “la recherche de Toronto est prometteuse en ce qu’elle pourrait potentiellement produire de grandes quantités de matériel de greffe de peau en peu de temps”, à l’opposé des méthodes pratiquées actuellement. Article rédigé par Georges Simmonds pour RT Flash IOP | | | |
| L’intelligence artificielle en support de la biologie va très probablement et très prochainement permettre de diagnostiquer, par simple test sanguin, le développement et la progression des maladies neurodégénératives, dont la maladie d’Alzheimer. C’est la démonstration de cette équipe de la McGill University qui ouvre, avec cette nouvelle technique, la possibilité de cibler le meilleur traitement possible pour le patient et de pouvoir en mesurer l'efficacité. L’évolution de la maladie neurologique est propre à chaque patient et il est donc complexe d’en mesurer précisément la progression, sans recourir à des tests invasifs ou coûteux. Il existe, en particulier avec le vieillissement des populations et la hausse de prévalence des démences, un besoin immense de diagnostic possible de la neurodégénérescence en routine clinique. Cette étude montre qu’un simple test sanguin « assisté » par intelligence artificielle (IA) peut prédire et expliquer la progression de la maladie. L’équipe du Neuro (Institut et hôpital neurologiques de Montréal) de l'Université McGill et du Centre Ludmer pour la neuro-informatique a analysé, à l’aide d'un algorithme d'IA, des échantillons de sang et de tissus cérébraux post-mortem provenant de 1.969 patients atteints de la maladie d'Alzheimer ou de la maladie de Huntington. L’objectif était de pouvoir identifier une signature moléculaire associée à ces maladies. L'algorithme aboutit à un « premier aperçu à long terme des changements moléculaires associés, sur de nombreuses années, à la neurodégénérescence ». L’idée est bien ici une signature de l’évolution de la maladie, au contraire de précédentes analyses transversales. Ces travaux apportent donc des repères chronologiques de la progression de la maladie sur plusieurs décennies, et donc, en pratique, des liens entre des changements dans l'expression de certains gènes et les changements dans l'état du patient. La nouvelle technique diagnostique permet ainsi de détecter de 85 à 90 % des voies moléculaires prédictives de la maladie, révélées par l'analyse plus « traditionnelle » des tissus cérébraux post-mortem. Cela non seulement confirme la précision de la nouvelle technique, mais suggère aussi une similitude frappante entre les changements moléculaires qui se produisent dans le cerveau et ceux qui se produisent dans le reste du corps. Article rédigé par Georges Simmonds pour RT Flash Brain | | | |
| Première cause de mortalité dans le monde, les maladies cardiovasculaires font plus de 17 millions de morts dans le monde par an, selon les estimations de l’Organisation Mondiale de la Santé. Pour apporter de nouvelles pistes de recherche à ce grave problème de santé publique, le chercheur de l’Inserm Nicolas L’Heureux et son équipe, développent, au sein de l’unité « Bioingénierie Tissulaire » (Inserm/Université de Bordeaux), des « textiles humains » à partir de collagène afin de réparer les vaisseaux sanguins détériorés. Dans une étude publiée dans le journal Acta Biomaterialia, Nicolas L’Heureux et ses collègues décrivent comment ils ont cultivé des cellules humaines en laboratoire, afin d’obtenir des dépôts de matrice extracellulaire riche en collagène, cette protéine structurale qui compose l’échafaudage mécanique de la matrice extracellulaire humaine. « Nous avons obtenu des feuillets de matrice extracellulaire fins, mais très solides qui peuvent servir de matériel de construction pour remplacer les vaisseaux sanguins », explique Nicolas L’Heureux. Ces feuillets ont ensuite été découpés par les chercheurs pour former des fils, un peu comme ceux qui composent le textile d’un vêtement. « Nous pouvons tisser, tricoter ou tresser les fils que nous avons obtenus pour leur donner de multiples formes. Notre objectif principal est de faire des assemblages avec ces fils qui puissent remplacer les vaisseaux sanguins endommagés », ajoute Nicolas L’Heureux. Entièrement composés de matériel biologique, ces vaisseaux sanguins auraient, en outre, l’avantage d’être bien tolérés par tous les patients. En effet, le collagène ne varie pas d’un individu à l’autre, ce qui implique que ces vaisseaux ne devraient pas être considérés par l’organisme comme des corps étrangers à rejeter. Les chercheurs veulent désormais affiner leurs techniques de production de ces « textiles humains » avant de passer aux essais animaux, afin de valider cette dernière hypothèse. Si ceux-ci sont concluants, ils pourraient mettre en place des essais cliniques. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Selon une étude très attendue, réalisée par des chercheurs de la Huazhong University of Science (Wuhan, Chine) et du Leiden University Medical Center (Pays-Bas), la tomodensitométrie (TDM) thoracique apporte le meilleur diagnostic pour la pneumonie COVID-19. L’analyse des données d’imagerie et de tests de laboratoire de plus de 1.000 patients montre que la TDM thoracique surpasse les tests biologiques dans le diagnostic de l’épidémie associée au nouveau coronavirus, COVID-19. Les chercheurs concluent, dans la revue Radiology, que la tomodensitométrie devrait être utilisée, dès que possible, comme principal outil de dépistage. En l'absence de traitement curatif ou de vaccins thérapeutiques spécifiques pour COVID-19, il est essentiel de détecter la maladie à un stade précoce et d'être en mesure d’isoler immédiatement un patient infecté. Les dernières directives recommandent de confirmer le diagnostic de COVID-19 par analyse biologique RT-PCR (réaction en chaîne par polymérase à partir d'un échantillon d'ARN ou séquençage de gènes) d’échantillons respiratoires ou sanguins avant décision d’hospitalisation. Cependant, compte tenu des aléas possibles lors de la collecte et du transport des échantillons, ainsi que des performances des kits, le taux de sensibilité total de l’analyse RT-PCR pour les échantillons d'écouvillon de gorge est estimé comme compris entre 30 % et 60 %. Enfin, de récentes recherches ont suggéré que la sensibilité de la tomodensitométrie pour l'infection au COVID-19 était de 98 % vs une sensibilité de la RT-PCR de 71 %. 81 % des patients négatifs via RT-PCR mais positifs via TDM thoracique seraient reclassifiés positifs à COVID-19. Cette étude a donc regardé la valeur diagnostique et la cohérence de l'imagerie thoracique par rapport au test RT-PCR pour COVID-19 et chez 1.014 patients. Ces participants ont subi à la fois une TDM thoracique et des tests RT-PCR entre le 6 janvier et le 6 février 2020. Les performances de la TDM thoracique dans le diagnostic de COVID-19 ont été évaluées en regard de la norme de référence actuelle : la RT-PCR. Pour les participants ayant dû passer plusieurs tests RT-PCR, la conversion dynamique des résultats des tests RT-PCR (négatifs en positifs et positifs en négatifs, respectivement) a également été rapprochée des tomodensitogrammes thoraciques en série. L’analyse de ces données montre que 59 % des participants (601) ont obtenu des résultats positifs avec RT-PCR, contre 88 % (888) avec la TDM. L'étude révèle que 81 % des patients négatifs via RT-PCR mais positifs par TDM thoracique ont été reclassifiés comme cas positifs à COVID-19 très probables ou probables, après analyse complète des symptômes cliniques et des suivis dynamiques par scanner. La faible sensibilité de la technique RT-PCR implique qu'un grand nombre de patients COVID-19 ne seront pas identifiés rapidement et pourraient ne pas recevoir à temps le traitement approprié. De plus, cette carence de détection -tout comme l’existence de cas asymptomatiques - accroît considérablement le risque de propagation du virus. « Le diagnostic précoce de COVID-19 est crucial pour le traitement et le contrôle de la maladie », écrivent ainsi les chercheurs, qui poursuivent, « L'imagerie CT thoracique ou scan thoracique peut être une méthode plus fiable, pratique et rapide pour diagnostiquer et évaluer COVID-19, en particulier dans la zone épidémique ». Article rédigé par Georges Simmonds pour RT Flash The Lancet | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|