| | | | | | | Edition du 24 Janvier 2020 |
| |
|
| Edito Quelles sont les dix avancées scientifiques et technologiques qui ont marqué 2019 ?
Cette semaine, il m'apparaît intéressant, comme je le fais chaque début d’année, de parcourir la presse scientifique française et anglo-saxonne pour essayer d’en extraire les grandes avancées scientifiques qui ont marqué l’année 2019. Après avoir consulté de nombreuses publications, parmi lesquels « La Recherche », mais également la revue du MIT, ou encore « Technowise, « The Scientist » ou « Science News », nous avons finalement retenu dix découvertes ou ruptures technologiques, mais également sociétales, qui nous paraissent particulièrement importantes. La première découverte qui a marqué l’année 2019, et a été largement reprise par l’ensemble de la presse scientifique internationale, est la première photographie jamais réalisée d’un trou noir. Celui-ci est un véritable monstre, situé au cœur de la galaxie Messier 87, à 55 millions d’années-lumière de notre Terre. Sa taille défie l’entendement, puisqu’il est 6,5 milliards de fois plus massif que notre étoile, le soleil. Quant à son diamètre, il atteint les 48 milliards de km, soit neuf fois celui de l’orbite de Pluton… (Voir NASA). Pour parvenir à réaliser ce premier cliché d’un trou noir, les scientifiques ont dû déployer des trésors d’ingéniosité et ont réussi à surmonter d'immenses difficultés techniques. Ils ont notamment dû synchroniser avec une extrême précision et combiner une multitude de signaux reçus simultanément par plusieurs instruments situés dans différentes régions du globe. Au terme de deux années de travail, d’analyse et de traitement informatique de quantités gigantesques de données, astrophysiciens et informaticiens ont finalement réussi à produire cette première photo historique d’un trou noir, un simple cercle orangé, sur fond noir, qui ne semble pas très spectaculaire, mais qui ne représente pas moins une avancée décisive dans la connaissance de l’Univers. Cette première image d’un trou noir confirme en effet définitivement l’existence de ces objets tout à fait fascinants dont la réalité a été mise en doute pendant des décennies par de nombreux scientifiques. Cette photographie historique confirme également la théorie de la relativité générale d’Albert Einstein qui explique le rôle fondamental de la force gravitationnelle (l’une des quatre interactions fondamentales de l’Univers) dans la structure de l’espace-temps et l’évolution du Cosmos. Les deux découvertes suivantes que nous avons retenues concernent la connaissance de nos origines et de nos lointains ancêtres. On savait déjà, grâce à de récents travaux d’analyse de l’ADN de spécimens fossiles d'Homo sapiens, d'Homme de Neandertal et d'Homme de Denisova, que ce dernier et l'Homme de Neandertal avaient un ancêtre commun remontant à environ 450 000 ans, et que tous deux partageaient avec Homo sapiens un ancêtre commun remontant à environ 660 000 ans. De nouvelles découvertes faites en 2019 confirment qu’il y a bien eu croisement et coexistence entre ces Dénisoviens, les Neandertal et les Sapiens. Certaines des populations d’Asie et d’Océanie en portent d’ailleurs encore la trace puisqu’on trouve, dans leur génome, des traces tout à fait identifiables de gènes de Dénisoviens. On sait en outre aujourd’hui que ce cousin de Neandertal et d’Homo sapiens a colonisé une large partie de l’Asie, qu’il s’est alors divisé entre au moins trois groupes distincts d’hominidés et qu’il s’est notamment adapté, bien avant Sapiens, à la vie à très haute altitude dans les montagnes de l’Himalaya (Voir Nature). Une autre découverte majeure, révélée également en 2019 par une étude publiée par le paléoanthropologue Florent Détroit (Muséum d’Histoire naturelle de Paris), confirme par ailleurs l’existence d’une nouvelle espèce humaine, Homo luzonenesis, qui vivait sur l’île de Luçon aux Philippines, il y 60 000 ans, ce qui porte à au moins cinq groupes les hominiens qui peuplaient déjà la Terre il y a 100 000 ans : les Homo Sapiens, en Afrique, les Neandertal en Europe, les Denisoviens en Asie, les Hommes de florès, en Indonésie et enfin les hommes de Luçon aux Philippines. Avec ses caractéristiques anatomiques et morphologiques tout à fait particulières, mélange surprenant de traits archaïques et plus modernes, cet homme de Luçon était probablement à la fois bipède et arboricole. Ces découvertes remarquables concernant les Denisoviens et l’homme de Luçon bouleversent le schéma de l’évolution humaine et montrent clairement que celle-ci n’a pas été linéaire mais arborescente et foisonnante. Trois découvertes suivantes s’inscrivent dans le champ des sciences de la vie, de la médecine et des technologies de la santé. La première concerne la fascinante et subtile connexion entre les cellules cancéreuses et le système nerveux ; viennent ensuite les premières cultures de cerveau humain et l’arrivée des premières pilules ingérables téléguidées. Aussi étrange que cela puisse paraître, une équipe de recherches françaises, du laboratoire cancer environnement (Inserm-CEA) à Fontenay-aux-Roses, a découvert l’an dernier que le cerveau produit des cellules-souches neuronales qui, franchissant la barrière hématoencéphalique – l’enveloppe du cerveau pourtant réputée infranchissable – sont transportées par le sang et vont aller infiltrer des tumeurs cancéreuses en formation, notamment dans la prostate (voir article RT Flash). Cette équipe, dirigée par Claire Magnon, a travaillé sur les tumeurs de 52 patients atteints de cancer de la prostate. Ces recherches ont permis de découvrir une nouvelle catégorie de cellules, appelées « cellules progénitrices neuronales », que l’on trouve en principe uniquement au cours du développement embryonnaire, dans deux aires du cerveau, l’hippocampe et la zone sous-ventriculaire. Ce très beau travail scientifique a également permis de montrer qu’il existait une relation très forte entre le nombre de ces « cellules vagabondes » et l’agressivité du cancer étudié. Cette découverte fondamentale est extrêmement importante car elle ouvre une voie thérapeutique tout à fait nouvelle pour combattre les cancers. De récentes observations cliniques ont notamment déjà pu montrer le meilleur taux de survie chez certains patients atteints de cancer de la prostate qui prenaient régulièrement des bêtabloquants (substances qui bloquent les récepteurs de l’adrénaline). Il faut également souligner que l’observation des fibres nerveuses à l’intérieur des tumeurs s’est étendue à d’autres types de cancer : côlon, pancréas, mélanome. Plusieurs essais cliniques sont d’ailleurs actuellement en cours aux États-Unis pour évaluer l’efficacité de bêtabloquants sur différentes tumeurs. L’idée est qu’en bloquant les récepteurs adrénaline et en empêchant l’adrénaline d’accéder aux cellules du trauma, il est peut-être possible d’entraver le développement de la tumeur. Une autre avancée assez extraordinaire de sciences de la vie est celle qui concerne la production en laboratoire des premiers organoïdes de cerveaux. Ces mini cerveaux ont été créés par une équipe de recherche de l’Université de Californie-San Diego et, contre toute attente, ces organoïdes ont produit des neurones qui se sont peu à peu synchronisés sur différentes fréquences, comme le fait le cerveau d’un embryon, jusqu’au huitième mois de développement. Bien que ces organoïdes demeurent des structures beaucoup plus simples de cerveau humain, leur utilisation ouvre d’immenses perspectives, tant pour progresser dans la connaissance fondamentale du fonctionnement cérébral que pour expérimenter de nouveaux traitements contre les nombreuses pathologies qui peuvent affecter le cerveau, qu’il s’agisse de troubles, tels que l 8217;autisme, ou de maladies neurodégénératives comme Alzheimer ou Parkinson (Voir Science Direct). Dernière avancée retenue dans le domaine médical, la pilule intelligente et téléguidée, capable de réaliser des prélèvements à l’intérieur du corps, de filmer en haute définition l’intérieur des organes et, dans certains cas, d’acheminer et de délivrer « sur site » des médicaments, de manière programmable. Depuis une dizaine d’années, la capsule endoscopique a pris une place majeure dans l’arsenal du diagnostic et ses moyens d’explorations de l’intestin grêle ont révolutionné les pratiques médicales. Il est aujourd’hui possible, à l’aide de ces petites capsules, d’explorer avec une grande précision l’estomac, le côlon ou l’intestin grêle, afin d’y déceler d’éventuelles lésions. Aux Etats-Unis, Guillermo Tearney, pathologiste et ingénieur au Massachusetts General Hospital (MGH) à Boston, développe de petites pilules ingérables qui peuvent être utilisées pour inspecter l'intestin à la recherche de signes de dysfonctionnement entérique environnemental (EED) et même obtenir des biopsies tissulaires. Ce nouvel outil s’avère particulièrement efficace et précieux dans les pays en voie de développement où il permet de réaliser des examens et investigations fiables, rapides et peu onéreuses pour prendre en charge de manière précoce la dysfonction entérique de l’environnement, un trouble de l'inflammation intestinale très répandue dans les pays pauvres, notamment en Asie... L’an dernier, une équipe d’ingénieurs du MIT a présenté un nouveau type de capsule ingérable, fabriqué en impression 3D et conçu pour demeurer un mois dans l’estomac avant de se dissoudre. Au cours de ces quatre semaines cette capsule transmet par Bluetooth une multitude d’informations. Cette capsule peut également délivrer plusieurs médicaments à libération prolongée et traiter de manière précise certaines infections. Dans les années à venir, ces pilules et capsules intelligentes et téléguidées vont encore progresser en miniaturisation, en capacité de calcul et d’analyse et en autonomie. À terme, ces outils extraordinaires deviendront des auxiliaires indispensables en matière d’investigation et de soins et seront capables d’explorer la totalité du corps humain avec une précision inégalée. Nous quittons à présent les sciences de la vie pour arriver dans le domaine des technologies numériques. Ce champ de recherche a fait l’objet l’an dernier d’une avancée qui n’a pas forcément eu la couverture médiatique qu’elle méritait, sans doute parce qu’il est assez difficile de l’expliquer simplement et d’en mesurer les immenses retombées. Il s’agit de l’annonce faite par Google, en octobre dernier, concernant la maîtrise du premier niveau de « suprématie quantique », un stade que les spécialistes appellent NISQ (Technologies Quantiques Bruitées d'Echelle Intermédiaire), qui désigne des calculateurs quantiques comptant 50 à 100 qubits, dépourvues de systèmes de correction d'erreur les mettant à l'abri du bruit. Bien qu'IBM conteste cette notion de "suprématie quantiq ue" qui aurait été atteinte par Google, nous devons reconnaître qu'un pas important a été franchi. Ces machines, bien qu’elles ne soient pas encore capables d’effectuer tous les types de calculs très variés que sait faire un ordinateur classique, sont déjà en mesure, pour certains types de calculs particuliers, d’atteindre des performances inimaginables, en comparaison avec nos ordinateurs binaires. En l’occurrence, Google, grâce à sa puce quantique Sycamore, qui compte 53 qubits, est parvenu à réaliser en seulement trois minutes et demi un calcul très particulier (tâches l’échantillonnage des circuits quantiques aléatoire ou RCS) qui aurait pris plus de 10 000 ans en utilisant les plus gros supercalculateurs actuels, selon les allégations de Google. La prochaine étape, qui devrait prendre entre 5 et 10 ans, sera celle de la mise au point d’un ordinateur quantique universel, entièrement opérationnel et capable de réaliser tous les types d’opérations. Il faudra pour cela concevoir des machines qui réunissent environ 1000 qbits, un objectif que les scientifiques considèrent à présent comme atteignable. Personne aujourd’hui ne peut prévoir ce que de telles machines, qui auront une puissance de calcul plusieurs millions de fois supérieures à celles de nos ordinateurs actuels, seront capables de faire. Mais il est certain que ces ordinateurs quantiques révolutionneront l’ensemble des disciplines scientifiques et bouleverseront nos sociétés. L’autre avancée retenue en matière de technologies numériques est beaucoup moins réjouissante que la précédente : il s’agit de la technologie « Deepfake ». Ce redoutable outil, qui utilise toutes les ressources de l’intelligence artificielle, permet à présent de produire ou de modifier de manière quasi parfaite de fausses séquences vidéo, afin d’effacer ou de modifier certaines réalités ou certains faits gênants, ou, au contraire, d’inventer de toutes pièces des faits et situations qui n’ont pas eu lieu… Les responsables politiques des Démocraties mais aussi les militaires américains considèrent que la technologie Deepfake constitue désormais une grave menace pour la sécurité nationale, et plus largement un grave danger pour le fonctionnement des démocraties. Bien sûr, cette technologie extrêmement puissante peut être utilisée de façon tout à fait légale dans de nombreux domaines, cinéma, divertissement, industrie, médecine, aménagement du territoire… Mais un tel outil peut également faire des ravages dans les mains d’organisations criminelles ou terroristes, ou de régimes politiques autoritaires. Face à cette technologie démiurgique, nos sociétés démocratiques vont donc devoir mettre en place des cadres légaux et éthiques tout à fait nouveaux, destinés à prévenir e t à réprimer sans faiblesse les utilisations dévoyées et criminelles de cette technologie qui permet de modifier la réalité et de réécrire l’histoire. Les deux dernières avancées remarquables concernent la question absolument essentielle du changement climatique en cours, et plus précisément les technologies de captage du CO2 atmosphérique, qui seront nécessaires, en plus des efforts mondiaux de réduction des émissions de gaz à effet de serre, pour parvenir à limiter les effets désastreux du réchauffement climatique en cours. Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) a rappelé à cet égard que ces technologies devront être capables de soustraire jusqu’à un milliard de tonnes de CO2 par an de l'atmosphère, au cours de ce siècle, si l’humanité veut limiter le réchauffement climatique en cours à moins de 2°. Pour parvenir à extraire ce CO2 de l’air à un coût compétitif, la société canadienne Carbon Engineering, soutenue par Bill Gates, a développé un réacteur géant, capable de capturer le dioxyde de carbone présent dans l’atmosphère. Par un procédé chimique complexe, cette « technologie à émissions négatives » attire les particules de CO2 dans le réacteur, où elles sont stockées. Dénommé « Direct Air Capture », le procédé, qui reviendrait à moins de 100 $ par tonne de CO2 traitée, est testé depuis quelques mois à Squamish, une ville du sud-ouest du Canada. Carbon Engineering affirme qu’avec environ un millier de centrales d'une surface de 30 ha chacune, il serait possible de retirer de l’atmosphère une gigatonne de CO2 par an. Ce CO2 pourrait ensuite être valorisé, en étant retransformé en carburants utilisables par les véhicules thermiques, ou définitivement stocké dans le sous-sol, sous forme de carbonate de calcium. En Suisse, une autre société basée à Zurich, Climeworks AG, a développé pour sa part un procédé qui permet d’aspirer directement le dioxyde de carbone de l’air. Chaque unité peut capter environ 900 tonnes de CO2 par an, et le CO2 ainsi récupéré pourra être utilisé pour améliorer certaines productions agricoles, produire des carburants ou certains matériaux industriels. Enfin, la 10e et dernière avancée, mais non la moindre, concerne la prise de conscience mondiale du changement climatique en cours. En 2019, on le sait, les températures estivales ont battu des centaines de records historiques, partout dans le monde, entraînant une fonte des glaces sans précédent au Groenland et au Pôle Nord et contribuant à alimenter les incendies de forêt qui ont fait rage dans différentes régions du monde. Mais 2019 a également connu un niveau sans précédent d'activisme climatique (Voir Science News), dont se félicitent scientifiques et climatologues. « Je n'ai jamais vu autant de protestations », explique le glaciologue Eric Rignot de l'Université de Californie à Irvine. Il fait référence aux marches climatiques qui ont eu lieu partout dans le monde et qui ont culminé lors du Sommet des Nations Unies sur l'action pour le climat en septembre à New York, avec 7,5 millions de personnes participant à une grève climatique mondiale. De mai à août 2019, près de 400 records de températures record ont été enregistrés dans 29 pays de l'hémisphère Nord. Tout le monde a encore en mémoire les deux vagues de canicules sans précédent qui ont déferlé sur l’Europe et la France, mais également les vagues de chaleur et de sécheresse qui ont frappé l'Inde et le Pakistan, ainsi que la canicule qui a touché le Japon, envoyant plus de 18 000 personnes à l'hôpital en une semaine. Globalement, juillet 2019 a été le mois le plus chaud en 140 ans de tenue de registres, selon la National Oceanic and Atmospheric Administration des États-Unis. Face à la violence du réel et à l’accélération de la fréquence de ces événements extrêmes et dévastateurs, les thèses climatosceptiques reculent partout dans le monde, y compris aux États-Unis (sauf l'opinion personnelle du Président des Etats-Unis telle qu'exprimée ces jours derniers à Davos), et l’opinion publique mondiale place désormais la question du réchauffement climatique en tête de ses préoccupations et de ses inquiétudes. Nous pouvons d’ailleurs faire le pari que les prochains scrutins qui auront lieu, tant en France que dans les autres pays du monde, vont se traduire par une confirmation de cette inquiétude climatique grandissante, et de cette attente de plus en plus forte de mesures économiques politiques et sociales destinées à faire de la lutte contre le changement climatique la priorit é absolue. On voit donc à travers ces dix grandes avancées scientifiques de 2019 que les scientifiques et chercheurs, loin de se contenter d’apporter des réponses aux questions essentielles de nos origines, du fonctionnement du vivant ou encore de la nature de notre Univers, ont également tenu à manifester leur engagement et à apporter leur contribution sur la question politique, démocratique et éthique fondamentale de l’avenir de notre espèce, confrontée à une menace climatique sans précédent qu’elle a elle-même provoquée. Souhaitons que nos responsables économiques et politiques aient la lucidité, le courage et la sagesse, d’entendre les avertissements et les recommandations de la communauté scientifique et prennent enfin à bras-le-corps ce défi nullement insurmontable du changement climatique, en jetant les bases d’un nouveau développement économique, plus humain et plus juste, qui sache faire confiance au génie et à la créativité de l’homme et nous réconcilie avec le nature dont nous nous sommes peu à peu coupés, mais dont nous sommes pourtant issus… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | | | L’utilisation de la technologie mobile a permis une réduction globale des émissions de gaz à effet de serre (GES) d’environ 2.135 millions de tonnes de CO2 l’an dernier, selon une nouvelle étude mandatée par la GSMA – une quantité proche du total des émissions annuelles de la Russie. Les réductions d’émissions ont été presque dix fois supérieures à l’empreinte carbone mondiale de l’industrie mobile elle-même. Le nouveau rapport de la GSMA, produit en collaboration avec le Carbon Trust, un spécialiste indépendant du développement durable, a été présenté à la Conférence des Nations Unies sur les changements climatiques de 2019 (COP25) qui s’est tenue à Madrid, il y a quelques semaines. Il en ressort que la majorité des émissions évitées grâce aux technologies mobiles sont le résultat de réductions significatives de la consommation d’énergie et de carburant. En 2018, les technologies mobiles telles que le Machine-to-Machine (M2M) et l’Internet des Objets (IdO) ont permis de réduire de 1,44 milliard de MWh la consommation d’énergie et d’économiser 521 milliards de litres de carburant dans le monde. « L’écosystème mobile a permis d’économiser suffisamment d’électricité et de gaz l’an dernier pour alimenter plus de 70 millions de foyers pendant une année entière aux États-Unis. En outre, du carburant correspondant à la consommation des 32,5 millions de voitures immatriculées au Royaume-Uni pendant 19 ans a été économisé », a déclaré Mats Granryd, directeur général de la GSMA. Cette étude souligne comment les technologies mobiles et intelligentes favorisent une croissance économique durable tout en permettant d’éviter les émissions dans de multiples secteurs industriels. « Ces technologies seront cruciales pour que le monde atteigne ses objectifs nets zéro. Le changement climatique exige un effort collectif de la part des gouvernements, des entreprises et de la société civile si nous voulons réussir à limiter l’augmentation de la température mondiale à 1,5 degré près », a déclaré Tom Delay, PDG du Carbon Trust. « Cette analyse montre le rôle positif que la technologie mobile joue dans l’évolution d’autres secteurs et est un excellent exemple de ce qui peut être fait ». Le Carbon Trust a examiné 14 marchés à travers le monde pour établir un échantillon représentatif de l’ “effet d’activation” de la capacité du secteur mobile à réduire ses émissions. Les résultats indiquent une répartition égale entre l’effet d’activation des technologies M2M/IdO et celles qui sont rendues possibles par des changements de comportement liés à l’utilisation personnelle des smartphones. La majorité des émissions ainsi évitées grâce aux technologies M2M concernent principalement les bâtiments, les transports, l’industrie manufacturière et le secteur de l’énergie – secteurs qui représentent une grande partie des émissions mondiales de GES. Par exemple, les réductions réalisées dans les bâtiments sont le résultat de technologies qui améliorent l’efficacité énergétique, comme les systèmes de gestion des bâtiments et les compteurs intelligents. Dans le secteur des transports, l’utilisation de la télématique peut améliorer l’optimisation des itinéraires et le rendement énergétique des véhicules. Parallèlement, l’utilisation des smartphones personnels permet de réduire les émissions grâce à des comportements encourageants tels que la réduction des déplacements, l’utilisation accrue des transports publics, le contrôle à distance du chauffage domestique et les achats en ligne. Article rédigé par Georges Simmonds pour RT Flash GSMA | | | |
| Sur la ligne pilote du CEA Liten à l’Institut national du solaire (Ines), à Chambéry, vient d’être produit un lot de cellules au rendement record de 24 %, avec un pic de 24,25 % certifié par le CalTec pour les meilleures cellules. La voie vers les 25 % est plus que jamais à portée… Ainsi que le retour d’une industrie du photovoltaïque européenne. Comme le rappelle le CEA, l’hétérojonction, c’est faire un subtil millefeuille de cellules de matériaux différents (silicium monocristallin et silicium amorphe notamment) contrairement à l’homojonction qui repose sur un seul matériau (silicium monocristallin). L’ajout de couches, dopées P et N+, de silicium amorphe (d’une dizaine de nanomètres), de part et d’autre du silicium monocristallin (dopé N), favorise l’attraction des électrons vers les zones de collecte. Ces couches sont elles-mêmes recouvertes, toujours en phase vapeur, d’un oxyde transparent conducteur qui permet le transport latéral des électrons et améliore le confinement optique des photons. Enfin, les surfaces actives de la cellule sont texturées : des pyramides micrométriques permettent de piéger les photons, qui rebondissent sur leurs faces, pour en capter jusqu’à deux fois plus qu’avec une surface plane. Ce procédé dispose d’au moins trois grands avantages. D’abord, les cellules sont bifaciales, ainsi, la face arrière de la cellule étant également active, une partie des rayons du soleil réfléchis par le sol peut être captée, permettant ainsi un gain de rendement de conversion de l’énergie lumineuse en électricité autour de 10 %. Ensuite, alors que toutes les cellules solaires voient leur rendement baisser à mesure que la température du dispositif augmente avec l’exposition au soleil, grâce à l’hétérojonction, le coefficient thermique de ces cellules est bien meilleur. La «perte» de rendement passe d’environ 0,35 % par degré à 0,25 % par degré. Enfin, grâce à des rendements de conversion élevés, l’hétérojonction permet d’utiliser moins de matière (cellule, modules, structures de montage). De même, ces procédés de fabrication ont un moindre impact environnemental. Notamment le procédé s’effectue à 200°C, soit de deux à quatre fois moins que pour les procédés des cellules classiques. Le seuil des 24 % a été obtenu en prenant toute la surface de cellules de taille industrielle M2 de 244 cm2, précise un communiqué de CEA-Tech/Liten. Le laboratoire, qui travaille sur le développement de la technologie depuis une quinzaine d’années, a en outre réussi à produire ces cellules avec des équipements industriels sur une cadence de 2 400 pièces par heure. Des résultats obtenus en optimisant notamment le dépôt par PECVD des couches nanométriques de silicium amorphe, en améliorant les couches d’oxyde transparent conducteur tout en réduisant les dommages liés à la manipulation des plaques durant la production, précise le Liten. Ces travaux confirment le potentiel de la technologie des cellules photovoltaïques à hétérojonction de silicium, tant du point de vue technologique qu’industriel. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| Des chercheurs du laboratoire MOLTECH-Anjou (CNRS/Université d'Angers) ont mis au point une méthode qui permet de capturer et relâcher des molécules cibles à l'aide d'une pince moléculaire commandable par transfert d'électrons. Ces travaux ouvrent une nouvelle voie vers l'utilisation élargie de "pinces moléculaires". Certaines molécules pourvues d'une cavité sont capables de capturer une molécule, généralement de plus petite taille, pour former des complexes hôte/invité. La molécule piégée peut ainsi être transportée en limitant son interaction avec l'environnement. Pour piéger ou relâcher à la demande le substrat, la molécule hôte doit réagir à une stimulation, comme une exposition à la lumière, à un pH donné ou à certains solvants. Afin d'enrichir l'éventail des possibilités, des scientifiques du laboratoire MOLTECH-Anjou (CNRS/Université d'Angers) ont conçu des récepteurs, de type pince notamment, contrôlables par transfert d'électrons. Les chercheurs ont synthétisé à partir d'un composé dérivé du fluorène, riche en électrons, une pince moléculaire qui s'auto-organise spontanément sous la forme d'un dimère, à l'image de deux brins d'ADN. En présence d'une molécule pauvre en électrons, les deux pinces se séparent et capturent chacune une molécule de substrat pour former un complexe hôte/invité. L'originalité du processus vient de l'oxydation de ces pinces : la perte d'électrons par oxydation se traduit par la formation d'un dimère oxydé et stable, à la structure proche du dimère de départ, puis par la libération de la molécule de substrat. Le processus est réversible et le système est donc réutilisable. Ces travaux offrent une nouvelle manière de contrôler de façon réversible les processus de piégeage/expulsion d'un substrat moléculaire et permettent d'envisager de nombreuses applications, dans le domaine biologique ou industriel. Article rédigé par Georges Simmonds pour RT Flash Wiley | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Encore une année plus chaude que la normale. En 2019, la température a atteint 13,7 degrés en moyenne sur la France et sur l'année, indique Météo France mardi 31 décembre. Un niveau qui dépasse la normale de 1,1 à 1,2 degré, et qui se classe au troisième rang des plus fortes valeurs mesurées depuis 1900. Seules les années 2018 et 2014 ont affiché des valeurs plus élevées. Depuis le début du XXIe siècle, seules les années 2010 et 2013 se sont illustrées par une température moyenne annuelle inférieure à la normale, relève Météo France. Et parmi les dix plus chaudes, huit appartiennent au XXIe siècle. L'année 2019 a connu une succession de mois "chauds", explique encore Météo France. Seuls janvier et novembre ont été proches de la normale, tandis que le mois de mai a été plus frais (-1,1 degré). Tous les autres mois ont largement dépassé les températures moyennes. Météo France rappelle ainsi que la France a été concernée par deux épisodes de canicule, du 25 au 30 juin puis du 21 au 26 juillet, avec de nombreux records sur l'ensemble du pays. L'année 2019 a ainsi été marquée par un nouveau record absolu de chaleur pour la France, avec 46 degrés relevés à Vérargues (Hérault), le 28 juin 2019. Article rédigé par Georges Simmonds pour RT Flash Météo France | | | |
| Après avoir analysé 400 000 photos satellites prises en 34 ans, des chercheurs alertent sur les conséquences économiques et climatiques de ce changement. Sur Terre, 56 % des grands fleuves de notre planète gèlent chaque année de manière saisonnière. Ce phénomène naturel qui présente de multiples avantages, tant économiques qu'environnementaux, est malheureusement menacé, indique une étude menée par des chercheurs de l'Université de Caroline du Nord (UNC). Si la communauté scientifique avait déjà démontré que les glaces fluviales durent de moins en moins longtemps dans de nombreuses régions du monde, cette nouvelle étude, intitulée The past and future of global river ice [Le passé et le futur de la glace fluviale dans le monde, NDLR], est la première à évaluer précisément à l'échelle mondiale les changements qui se sont déjà déroulés et ceux à venir. Pour y parvenir, les chercheurs ont analysé 400 000 images satellite prises entre 1984 et 2018. « En comparant la couverture de glace fluviale entre 2008-2018 et 1984-1994, nous avons détecté une baisse généralisée de la couverture mensuelle de glace fluviale », explique Xiao Yang, chercheur au département des sciences géologiques de l'UNC et principal auteur de l'étude. La diminution moyenne est de 2,5 %, avec des pics allant jusqu'à 4,3 % dans les régions les plus touchées, dont le plateau tibétain, l'Europe de l'Est et l'Alaska, peut-on lire dans l'étude. Les scientifiques ne se sont pas arrêtés là, puisqu'ils ont aussi créé un modèle permettant de prédire les évolutions futures les plus probables. Ils ont ensuite comparé la couverture de glace fluviale prévue entre 2009-2029 et 2080-2100. Selon leurs calculs, les diminutions dans l'hémisphère Nord seront comprises entre 9 et 15 % en hiver et entre 12 et 68 % au printemps et à l'automne. L'Europe de l'Est et le plateau tibétain devraient, encore une fois, être les plus touchés, ainsi que les montagnes Rocheuses (Amérique du Nord) et le nord-est des États-Unis. Au final, Xiao Yang et son équipe ont estimé que la couverture de glace des cours d'eau diminuera d'environ six jours à chaque fois que la température mondiale grimpera d'un degré Celsius, indiquent-ils dans leur étude. Pour rappel, la température moyenne sur Terre entre 2015 et 2019 était 1,1°C plus élevée qu'entre 1850 et 1900 et continue de grimper, à moins que des mesures drastiques soient prises par l'ensemble des Etats, ce qui est loin d'être le cas aujourd'hui. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Dans le cadre des efforts déployés pour réduire radicalement les émissions de CO2 engendrées par la production sidérurgique, diverses technologies sont développées et testées. L'hydrogène est de plus en plus perçu comme une alternative viable pour faciliter la transition énergétique. Le projet H2Future, financé par l'UE, vise à découvrir de nouvelles méthodes pour l'approvisionnement énergétique et à ouvrir la voie vers la décarbonisation progressive de la production sidérurgique. Il a lancé une usine pilote à Linz, en Autriche, pour produire de l'hydrogène écologique à partir d'électricité renouvelable. L'usine a une capacité de 6 MW et peut générer 1 200 m3 d'hydrogène écologique. Ce projet représente « une étape importante pour l'application industrielle de l'électrolyse comme pierre angulaire de futures applications industrielles dans l'industrie sidérurgique, le raffinage, la fabrication d'engrais et d'autres secteurs industriels exigeant d'importantes quantités d'hydrogène. Il jettera les bases pour de futurs projets à l'échelle industrielle ». Outre le fait d'être déployé dans le processus sidérurgique sur le site de Linz, l'utilisation de l'hydrogène comme moyen de stockage sera testée pour permettre d'équilibrer les fluctuations du réseau électrique découlant de l'instabilité issue de la production d'électricité à partir de sources d'énergie renouvelables. L'idée générale consisterait à utiliser l'excès d'énergies renouvelables pour produire de l'hydrogène lorsque la demande est faible et l'hydrogène stocké pour compléter les énergies renouvelables lorsque la demande est élevée. Wolfgang Anzengruber, directeur général de VERBUND, entreprise coordinatrice du projet, a déclaré : « L'hydrogène est écologique, autrement dit neutre en CO2, lorsqu'il est produit en utilisant de l'électricité générée à partir de sources renouvelables. Il nous permet de stocker des réserves instables et intermittentes d'électricité, générées à partir de sources renouvelables telles que le vent et le soleil, en permettant ainsi une meilleure utilisation ». La technologie de base utilisée au sein de la nouvelle usine est l'électrolyse, où l'eau est séparée en hydrogène et en oxygène à l'aide d'un courant électrique. Le site web du projet explique ce processus : « La technologie MEP fonctionne en utilisant une membrane échangeuse de protons comme électrolyte. Cette membrane possède une propriété spéciale : elle est perméable aux protons, mais pas aux gaz tels que l'hydrogène et l'oxygène. Cela signifie que dans un électrolyseur à MEP, la membrane agit comme électrolyte et comme séparateur pour éviter que les produits gazeux se mélangent ». Il y est également indiqué que tester cette « technologie à une échelle industrielle (6 MW) et simuler de rapides variations de charge d'électricité générée à partir de sources d'énergie renouvelables et de la sidérurgie à fours électriques à arc (équilibrage du réseau) sont les éléments clés de ce projet phare européen ». Les partenaires du projet soulignent que, bien qu'étant relativement récente, la technologie MEP a un fort potentiel pour des applications dans divers domaines tels que l'industrie et le transport, dont le transport ferroviaire et de marchandises. En outre, les électrolyseurs réactifs peuvent être utilisés pour approvisionner des réseaux électriques. Article rédigé par Georges Simmonds pour RT Flash H2FP | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Une équipe internationale menée par l’astrophysicienne Tetyana Milojevic de l’Université de Vienne a mis en évidence les caractéristiques particulières de Metallosphaera sedula, un micro-organisme qui se développe mieux sur les météorites que sur les roches terrestres. Les archées, ou Archaea, sont des micro-organismes aux caractéristiques très semblables à celles des bactéries - elles sont également unicellulaires et procaryotes. L’une de ces espèces d’archées, Metallosphaera sedula, intéresse depuis plusieurs années les scientifiques par sa capacité à survivre et se reproduire dans des milieux peu propices à la vie. Sa présence a par exemple été décelée dans des environnements acides, ou encore en présence d’uranium, car, non seulement résistante à la radioactivité, elle utilise même les radiations pour se développer. Ces caractéristiques ont soulevé des interrogations sur la possibilité de vie en dehors de notre système solaire ; l’étude publiée le 2 décembre 2019 par Tetyana Milojevic réaniment ces questionnements. Tetyana Milojevic a démontré que les archées Metallosphaera sedula se développent mieux sur les pierres météoritiques que sur les roches terrestres. Cette étude a été rendue possible par la collaboration avec le Muséum d’Histoire Naturelle de Vienne, qui a mis à disposition des pierres de sa collection de météorites pour permettre de telles expériences. « Cette étude, une collaboration entre l’Université de Vienne et le Muséum d’Histoire Naturelle de Vienne (Autriche) (ainsi que d’autres institutions qui se sont rajoutées par la suite), est un succès ! » explique Ludovic Ferrière, conservateur de la collection de météorites du Muséum d’Histoire Naturelle de Vienne et co-auteur de l’article publié par Tetyana Milojevic. « Le Muséum d’Histoire Naturelle de Vienne (Autriche) et sa prestigieuse collection de météorites ont non seulement fourni les échantillons de météorites qui ont été utilisés pour cette étude mais également une expertise et des moyens analytiques qui ont grandement contribué aux résultats présentés dans cette étude ». Dans le cadre de cette étude, les fragments d’une météorite nommée NWA 1172 et tombée en Afrique de l’Est ont été utilisés. « Les météorites sont de véritables "pierres de Rosette", elles nous apportent un grand nombre d’informations non seulement sur les premiers instants de la formation du système solaire, mais également sur les processus de formation des planètes et sont aussi des "véhicules" des premières briques de la vie. » commente Ludovic Ferrière. Des molécules organiques ont en effet déjà été trouvées dans des météorites. L’étude de Tetyana Milojevic montre que la forte présence de fer et la porosité de la pierre météorite permettent aux archées de se reproduire très rapidement : elles doublent leur population en 21h44 sur la chalcopyrite terrestre étudiée, mais en environ 8 heures sur la météorite. Selon Ludovic Ferrière : « Du fait de leur composition minéralogique spécifique, les météorites, dans le cas présent une météorite pierreuse, une chondrite ordinaire, sont une source unique de nutriments et d’énergie pour M. sedula [Metallosphaera sedula]. Ceci ouvre un grand nombre de perspectives dont certaines sont à la limite de la science-fiction… à quand la colonisation d’un astéroïde par M. sedula ? ». L’article de Scientific Reports note que ces résultats pourraient être d’une grande utilité pour les missions d’exploration spatiales, car Metallosphaera sedula produit des cristaux d’oxyde de fer et des agrégats riches en fer de quelques µm de diamètre. De telles formations pourraient constituer des « empreintes » de micro-organismes – et donc de vie – dans l’Univers. Article rédigé par Georges Simmonds pour RT Flash Scientific Reports | | | |
| On savait déjà que l'exposition à la pollution de l'air était particulièrement nocive pour les personnes plus fragiles, enfants, patients atteints de maladies respiratoires. Mais selon une nouvelle étude américaine, ce fléau altère également la santé cardiovasculaire des futures mères, en augmentant précisément le risque d’hypertension artérielle. Pour le prouver, les scientifiques, dirigés par le Professeur Brandy Beverly du National institute of environmental health sciences, ont passé en revue l’impact du taux d’exposition à des particules fines (PM2,5). Ils ont constaté que lorsque les femmes enceintes sont en contact avec ces molécules pendant leur grossesse, la probabilité de souffrir de pré-éclampsie augmente de 50 %. La pré-éclampsie est justement une maladie de la grossesse associée à une pression artérielle supérieure à la normale. D’autres prélèvements ont été effectués concernant le dioxyde d’azote, le monoxyde de carbone, et autres éléments carboniques. Autant de substances auxquelles les femmes sont exposées à proximité de routes principales. « Selon la littérature, les femmes vivant à moins de 400 mètres d’un axe routier important voyaient augmenter leur risque de souffrir de troubles hypertensifs pendant la grossesse ». Ces troubles entraînent des complications dans 10 % des cas à l’échelle mondiale. Ils constituent l’une des principales causes de maladies et de décès maternel et fœtal. Ces pathologies augmentent en effet le risque d’accouchements prématurés et la naissance d’enfants de petits poids. Article rédigé par Georges Simmonds pour RT Flash HCP | | | |
| Des chercheurs espagnols de l'Institut de recherche biomédicale August Pi i Sunyer (IDIBAPS) de Barcelone, ont découvert un nouveau mécanisme moléculaire impliqué dans la régulation du mouvement du cholestérol dans les cellules. L'étude a été menée par Carles Enrich et Carles Rentero, professeurs à l'unité de biologie cellulaire du département de biomédecine de la faculté de médecine et des sciences de la santé au Centre de recherche biomédicale Cellex. Au cours de l'étude, les chercheurs ont identifié la protéine Annexine A6 (AnxA6), qui agit comme un facteur-clé dans la régulation du mouvement du cholestérol dans les cellules. Dans les cas où les maladies causées par l'accumulation de cholestérol et d'autres lipides dans les endosomes peuvent être évitées, elle peut agir comme une cible thérapeutique potentielle. Ce nouveau mécanisme moléculaire peut protéger contre des affections telles que la maladie de Niemann-Pick de type C1, qui est causée par une mutation du gène NPC1, qui provoque l'accumulation du cholestérol dans l'intérieur cellulaire de l'endosome et qui est une maladie génétique minoritaire incurable, causant des lésions hépatiques et un type de démence. « La compréhension de ces mécanismes est très importante pour traiter les maladies où l’accumulation de cholestérol et d'autres lipides provoquent de graves altérations physiologiques dans le foie, la rate et le système nerveux », notent Carles Enrich et Carles Rentero. Pour une compréhension approfondie, les chercheurs ont utilisé la technique d'édition génétique CRISPR-Cas9 pour bloquer l’AnxA6 dans les cellules présentant le phénotype de la maladie. Il en est résulté la libération du cholestérol endosomique, montrant le rôle clé de cette protéine dans la régulation du transfert du cholestérol. Cette libération s'est produite en raison d'une augmentation significative des sites de contact membranaire, des structures nanométriques visibles au microscope électronique. Les chercheurs expliquent que ces sites de contact membranaire ne sont que quelques-uns à l'intérieur des cellules des patients affectés. Par conséquent, faire taire AnxA6 arrête l'effet de la mutation du gène NPC1 et redirige le cholestérol vers d'autres compartiments cellulaires, pour revenir à la normale cellulaire. « Les résultats pourraient aider à traiter les conséquences cliniques de l'accumulation du cholestérol chez les patients atteints de la maladie de Niemann-Pick et d'une douzaine d'autres pathologies, dont différents types de cancer (pancréas, prostate, sein), dans lesquels le métabolisme lipidique joue un rôle fondamental », soulignent les chercheurs. Article rédigé par Georges Simmonds pour RT Flash CMLS | | | |
| Des chercheurs de l’Institut national des sciences des matériaux du Japon (NIMS) ont mis au point un dispositif d’à peine 10 millimètres carrés qui abrite un réseau composé de nanofils d’argent. D’un diamètre moyen de 360 nanomètres, ces fils microscopiques ont été agencés d’une manière particulière. Celle-ci fait que le dispositif possède un fonctionnement similaire à celui du néocortex, une partie du cerveau humain qui est, entre autres, responsable du langage ou de la perception. Si le réseau créé ne peut pas parler, il est néanmoins capable d’accomplir certaines choses comme un être humain : mémoriser, oublier, ou encore être éveillé ou endormi. Une prouesse qui pourrait marquer une véritable révolution dans la conception des ordinateurs de demain. À la différence des réseaux classiques, les électrons qui traversent ce réseau changent sa configuration physique. Cela a généré ce que les scientifiques appellent un « comportement émergent ». Cela signifie qu’il possède des caractéristiques qui n’ont pas pour origine des éléments qui le compose. Quand le courant circule dans le réseau, des connexions sont faites entre les nombreux nanofils qui rappellent le fonctionnement de différents mécanismes de notre cerveau. Si la connexion dure plus d’une minute, elle imite notre faculté d’apprentissage ou de mémorisation d’une donnée. À l’inverse, quand la connexion s’arrête brusquement, cela évoque la manière dont notre cerveau oublie quelque chose. S’il rappelle notre cerveau, il n’est pas question de créer de faux humains possédant un cerveau fait de nanofils. Néanmoins, cette technologie pourrait permettre de créer des ordinateurs dont les capacités sont au-delà de celles des modèles actuels. Comme ce système ressemble au cerveau humain, il pourrait fonctionner tout en utilisant beaucoup moins d’énergie. À titre de comparaison, la puissance nécessaire pour faire fonctionner notre cerveau équivaudrait à celle d’une ampoule de 20 watts. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Deux études américaines viennent de confirmer les bienfaits du jeûne intermittent. En réduisant l’inflammation, celui-ci réduirait le risque de maladies chroniques. En parallèle, d’autres travaux viennent de prouver que manger moins de calories renforce le système immunitaire. Prescrire un régime alimentaire adapté aux patients, en plus de leur traitement traditionnel, pourrait donc améliorer leurs chances de guérison. La première étude s’est penchée sur les effets du jeûne sur les cellules immunitaires, après des périodes de jeûne intermittent. Pour ce faire, les chercheurs du Mount Sinai Health System de New-York ont examiné les cellules de souris et celles d’humains. Ils ont découvert que le jeûne réduisait le nombre de monocytes, des globules blancs pro-inflammatoires circulant dans le sang. « Les monocytes sont des cellules immunitaires extrêmement inflammatoires qui peuvent causer de graves lésions tissulaires. On a constaté leur augmentation dans la circulation sanguine de la population, suite aux habitudes alimentaires acquises par l’homme au cours des derniers siècles », explique le Docteur Merad, co-principal auteur de l’étude. Si l’inflammation peut être une réponse normale du système immunitaire pour lutter contre les infections, lorsqu’elle devient chronique, elle peut entraîner de graves maladies (problèmes cardiaques, diabète, cancer...). « Compte tenu du large éventail de pathologies causées par l’inflammation chronique, et du nombre croissant de patients atteints de ces maladies, les études sur les effets anti-inflammatoires du jeûne ont un potentiel énorme », souligne le Docteur Stefan Jordan, auteur principal de l’étude. La seconde étude a été menée par des chercheurs du National Institute of Allergy and Infectious Diseases (Etats-Unis). Ces derniers ont limité l’apport calorique chez des souris, qui avaient jusqu’alors une alimentation normale. Ils ont constaté qu’en suivant ce régime, les rongeurs avaient moins de lymphocytes T mémoire dans leur tissu lymphoïde, où ils se trouvent normalement, et davantage de ces cellules dans la moelle osseuse. Les chercheurs ont ensuite redonné un régime “normal” aux souris, et leur ont inoculé la bactérie Yersinia pseudotuberculosis, à l’origine d’une fièvre semblable à celle causée par la scarlatine chez l’homme. Une fois que les rongeurs ont développé une mémoire immunologique, une partie d’entre eux a, une fois de plus, été soumise à un régime restrictif, avant d’être ré-exposée à la maladie. Résultat : le système immunitaire des souris qui consommaient moins de calories a reconnu et combattu de manière plus efficace la maladie infectieuse, que celles mangeant ce qu’elles voulaient. Les scientifiques ont réitéré l’expérience avec un vaccin qui entraîne le système immunitaire à combattre le cancer de la peau. Les cellules T mémoire des souris au régime combattaient les tumeurs plus efficacement que celles des autres rongeurs. Cela pourrait suggérer que le système immunitaire des mammifères a évolué, de manière à être plus fort même lorsque les aliments viennent à manquer. Toutefois, les chercheurs ne savent pas encore si ces résultats peuvent s’appliquer à l’homme. « Si vous réduisez les calories, la réponse naturelle est de sauver les cellules », explique le Docteur Yasmine Belkaid - qui a participé à la seconde étude. « Ainsi, les cellules se cachent dans la moelle osseuse pour recevoir les nutriments nécessaires à leur survie. Mais dans la moelle osseuse, les cellules T acquièrent une fonction de protection renforcée ». Selon l’experte, ces deux études « montrent de manière complémentaire qu’un simple changement de régime alimentaire peut avoir un effe t profond sur notre système immunitaire ». Article rédigé par Georges Simmonds pour RT Flash Cell NIAID | | | |
| Des chercheurs de l’Université de New York ont montré que les personnes souffrant de dépression multipliaient par 2 leur consommation de cannabis. Ces conclusions, issues de l’analyse des données de consommation de plus de 700.000 personnes, présentées dans la revue Addiction, s’expliquent en partie par une perception bien moindre chez les usagers dépressifs, du risque de troubles associés à une consommation régulière et importante de cannabis. L’étude a interrogé 728.691 personnes âgées de 12 ans ou plus sur leur consommation de cannabis afin d’évaluer les tendances de prévalence de la consommation quotidienne et épisodique de cannabis au cours des 30 derniers jours et de la perception du risque associé à la consommation régulière de cannabis, chez les personnes atteintes ou non de dépression au cours des 12 derniers mois. Les chercheurs ont pris en compte les facteurs de confusion possibles dont le sexe, l'âge, l’origine ethnique et le niveau de revenu. L’analyse montre une prévalence de la consommation multipliée par 2 chez les participants atteints de dépression : 18,94% vs 8,67% soit une probabilité de consommation OR : 2,04 ; l'étude montre également une augmentation de la consommation de cannabis plus rapide chez les personnes souffrant de dépression, ainsi qu'une perception des risques de troubles associés significativement plus faible chez ces participants. Les chercheurs concluent que les personnes souffrant de dépression connaissent une diminution plus rapide de la perception du risque associé à la consommation excessive de cannabis, ce qui peut contribuer à expliquer l'augmentation plus rapide de leur consommation. Ainsi, l’analyse conclut que la prévalence de la consommation de cannabis au cours des 30 derniers jours chez les personnes souffrant de dépression qui ne perçoivent plus aucun risque associé à une consommation régulière de cannabis est beaucoup plus élevée que chez celles percevant encore un risque associé à cette consommation (38,6 % contre 1,6 %, respectivement). Article rédigé par Georges Simmonds pour RT Flash Addiction | | | |
| Selon des chercheurs de l'Université de Pittsburgh, le simple fait de changer le mode d'administration d'un vaccin pourrait améliorer sensiblement son efficacité. Ces scientifiques ont travaillé sur le BCG (Bacille de Calmette et Guérin). Mis au point dans les années 1920, ce vaccin contre la tuberculose est relativement efficace contre les formes graves de la maladie, notamment chez les jeunes enfants, mais il n'empêche pas l'infection par le bacille. Administré en sous-cutané, le vaccin contient une souche vivante atténuée de la bactérie Mycobacterium tuberculosis, ce qui entraîne la fabrication par l'organisme de lymphocytes T, mais en quantité insuffisante pour empêcher la bactérie de pénétrer dans les cellules. Selon une méta-étude de 2014, seules 27 % des personnes vaccinées sont protégées de l'infection, 71 % étant protégées contre la maladie. Selon l'Organisation mondiale de la Santé (OMS), un tiers de la population mondiale est ainsi touché par une infection « latente », c'est-à-dire infecté par la bactérie qui reste « dormante » dans l’organisme. Mais dans 5 à 10 % des cas, souvent à la faveur d'une baisse de l'immunité ou d'une maladie chronique, le bacille se réveille et la tuberculose devient alors active et contagieuse. Les scientifiques cherchent donc depuis plusieurs années le moyen de prévenir plus efficacement l'infection. En 2013, l'immunologiste Robert Seder, du National Institute of Health (NIH), l'organisme de recherche en santé du gouvernement américain, a découvert qu'administrer le vaccin contre la malaria directement en intraveineuse plutôt qu'en sous-cutané ou en intra-musculaire assurait une protection plus efficace et mieux tolérée. Avec ses collègues de l'Université de Pittsburgh, il s'est donc demandé si la même approche pouvait être utilisée pour le BCG. Pour le vérifier, les chercheurs ont testé cinq formulations de BCG chez 52 singes macaques, dont la réponse immunitaire au BCG est exactement identique à celle chez l'humain : selon la procédure standard (injection en sous-cutané) à dose normale, en intradermique à dose élevée (100 fois supérieure à la dose standard), en administration par aérosol (avec un masque), directement dans le sang par intraveineuse, ou avec une combinaison d'aérosol et d'injection sous-cutanée. Un groupe témoin non vacciné a également été constitué. Six mois plus tard, les singes ont tous été volontairement infectés par le bacille de la tuberculose. Résultat : tous les singes non vaccinés ont développé la maladie sous une forme sévère. Chez tous les autres groupes, à l'exception de celui vacciné en intraveineuse, on observe également la propagation de la bactérie dans les poumons. À l'inverse, 6 des 10 singes vaccinés par intraveineuse ne montrent aucune présence du bacille dans leur organisme, et chez les 4 autres, la virulence de la maladie est bien inférieure. « Cela signifie que cette forme de vaccination prévient à la fois l'infection et la maladie », se félicite Joanne Flynn, coauteur de l'étude parue dans Nature. Une des explications avancée par les chercheurs est que le vaccin par intraveineuse entraîne une production bien plus importante de lymphocytes T dans les poumons (5 à 10 fois supérieure à celle d'une vaccination sous-cutanée ou en aérosol). Ces cellules immunitaires, qui conservent en mémoire les caractéristiques de l'agresseur, permettent une réponse plus forte et plus rapide lorsque ce dernier est à nouveau détecté par rapport aux macrophages. Du coup, la bactérie n'a pas le temps d'atteindre la circulation sanguine où elle pourra rester dormante pendant des années. « Cette découverte pourrait amener au développement d'un nouveau vaccin chez l'Homme et sauver des millions de vies », assure Joanne Flynn. La tuberculose reste l'une des 10 premières causes de mortalité dans le monde, avec 10 millions de nouvelles infections chaque année et 1,5 million de décès. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Des chercheurs américains et australiens sont parvenus à développer un vaccin permettant de faire reculer une possible cause de l'Alzheimer, générant ainsi un vent d'espoir pour des millions de personnes aux prises avec cette maladie neurodégénérative. La maladie d’Alzheimer est, selon toute vraisemblance, causée et aggravée par la formation d'agrégats de protéines bêta amyloïdes et de protéines tau dans le cerveau. Le premier type de protéine forme des plaques entre les neurones, nuisant à l'échange de signaux entre les cellules, tandis que le second crée des enchevêtrements dans les neurones, empêchant les nutriments de se rendre aux cellules. Le vaccin développé à l'Université de Californie à Irvine est composé de deux agents actifs qui génèrent la création d'anticorps capables de s'attaquer aux plaques amyloïdes et aux enchevêtrements de protéines tau. Testé sur des souris doublement transgéniques développant autant des agrégats de protéines bêta amyloïdes que tau, le vaccin a permis de réduire l'importance des plaques et des enchevêtrements dans les cerveaux des rongeurs. « Nos données démontrent que la vaccination pourrait potentiellement générer une forte réponse immunitaire contre les deux principales pathologies de la maladie l'Alzheimer », ont écrit les chercheurs en guise de conclusion de leur étude parue à la mi-décembre dans la publication spécialisée «Alzheimer's Research and Therapy». En plus d'être efficace chez les souris, le vaccin a été développé chez les humains avec un adjuvant développé à l'Université Flinders, à Adélaïde en Australie, qui est reconnu comme étant sécuritaire et efficace. Les chercheurs estiment qu'ils seront prêts à amorcer des essais cliniques chez les humains d'ici deux ans, a souligné l'Université Flinders dans un communiqué paru récemment. Ces chercheurs ne sont pas les seuls à tenter de trouver une façon de lutter contre la démence. Plus tôt cette année, l'entreprise NeuroEM Therapeutics a annoncé avoir développé un casque émettant des ondes électromagnétiques qui peuvent détruire les amoncellements de protéines bêta amyloïdes et tau. Un premier essai clinique mené pendant deux mois sur huit patients a permis de voir une amélioration des fonctions cognitives chez sept d'entre eux. Article rédigé par Georges Simmonds pour RT Flash JDM | | | |
| Des scientifiques américains de l'Université de Californie-San Francisco et de l'Université Washington de St-Louis sont parvenus à prédire l'évolution de la disparition des neurones du cortex cérébral au cours de la maladie d'Alzheimer. Ces chercheurs se sont appuyés sur une analyse fine des imageries cérébrales pour déterminer le processus de dégénérescence des neurones du fait de cette maladie. "L'une des premières choses que les gens veulent savoir lorsque l'on annonce un diagnostic de maladie d'Alzheimer est simplement ce que l'avenir leur réserve, à eux ou leurs proches", explique le docteur Rabinovici, qui dirige l'étude. "Est-ce qu'il s'agira d'une lente disparition de la mémoire ou un rapide déclin dans la démence ? Combien de temps le patient pourra-t-il vivre de façon autonome ? [...] Ce sont des questions auxquelles nous ne pouvions pas répondre actuellement, sauf dans les termes les plus généraux", poursuit encore le neurologue. Les scientifiques expliquent qu'Alzheimer se caractérise par deux types de lésions, des dépôts de protéines amyloïdes qui forment des plaques entre les neurones d'abord, et des dépôts de protéines Tau à l'intérieur des neurones ensuite. Si une imagerie avec injection d'un radiotraceur permettant de voir les lésions Tau est réalisée au début de la maladie, il semble désormais possible de prédire comment les symptômes du patient vont évoluer, poursuivent-ils. "Les chercheurs se sont rendu compte qu’en fonction de la localisation de l’accumulation de la protéine Tau, et de sa quantité, il était possible de prédire l’évolution de la maladie. Plus elle s’accumule en grande quantité et à certains endroits particuliers, plus la vitesse de progression sera rapide et donc la prise en charge devra être adaptée au mieux", précise le professeur Philippe Amouyel, président de la Fondation Alzheimer. La corrélation entre les lésions Tau en imagerie et l'apparition des symptômes pourrait "aider au développement de futurs essais cliniques dans la maladie d'Alzheimer", explique Renaud La Joie, premier auteur de l'étude. Il pourrait donc à terme être plus simple et plus rapide de déterminer si un traitement est efficace chez un malade. Article rédigé par Georges Simmonds pour RT Flash STM | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|