| | | | | | | Edition du 13 Novembre 2020 |
| |
|
| Edito L’ordinateur quantique arrive à grand pas…
Avant Propos Chers lecteurs de RT Flash, Je remercie les 27 lecteurs de RT Flash qui, cette semaine, ont adhéré et fait des dons à notre association. En ajoutant les 2.020 euros que vous avez apportés, vous avez ainsi permis à notre cagnotte d'atteindre 13.957 €. Certes, nous ne nous approchons que lentement de notre objectif de 20.000 € mais les messages particulièrement sympathiques que j'ai reçus de plusieurs parmi vous, ces temps derniers, m'ont fait chaud au cœur. J'ai la conviction que vous êtes de plus en plus nombreux à avoir pris conscience de la somme de temps que les 3 membres de notre toute petite équipe (toujours les mêmes !) ont apporté depuis 22 ans, et ce bénévolement, pour vous permettre de recevoir, gratuitement et sans publicité, RT Flash chaque semaine. Sauf pour l'un des rédacteurs, à qui l'association verse chaque semaine un petit défraiement bien mérité, les deux autres rédacteurs, dont moi-même, n’avons pas perçu le moindre centime de rémunération depuis 1998. Aussi, tous les dons que vous versez à notre Association, l'ADIST, servent à faire fonctionner (rémunération des techniciens, fonctionnement technique, juridique, etc...) RT Flash. Sans ces moyens de fonctionnement, RT Flash ne pourrait plus être mis en ligne, chaque semaine. Je sais pouvoir compter sur vous car, sans vous, nous n'aurions plus d'avenir, ne recevant plus, comme par le passé des subventions des Instituts de Recherche. Par ailleurs, nous maintenons notre résolution de n’accepter aucune ressource de publicité, ce qui incite de plus en plus d'enseignants, et nous les remercions, à recommander la lecture de RT Flash à leurs élèves. Si vous voulez aider RT Flash, Lettre d'Informations Scientifiques, gratuite et sans publicité depuis 1998, appuyez sur le lien suivant : Adhérez à notre Association ou faites un DON pour sauver RT Flash, vous bénéficierez d'une réduction fiscale de 66 % EDITO Près d’un siècle après l’avènement de la mécanique quantique, véritable séisme conceptuel au coeur de la physique, porté par de géniaux scientifiques, Max Planck, Einstein, De Broglie, Niels Bohr, Dirac, Max Born, Schrödinger, Heisenberg, les avancées et innovations ouvrant la voie vers un ordinateur quantique totalement opérationnel ne cessent de s’accélérer depuis quelques mois. Les géants de l’informatique et du numérique se livrent une compétition acharnée pour être le premier à maîtriser pleinement cette technologie qui s’annonce comme une rupture scientifique aussi importante qu’en leur temps le téléphone, la radio, la télévision, le transistor ou l’Internet. Sans entrer dans des détails trop techniques, rappelons seulement que le « qbit », formulé il y a 25 ans, représente la plus petite unité de calcul quantique possible. Mais contrairement au bit classique, qui ne peut prendre que deux valeurs, 0 ou 1, le qbit possède intrinsèquement deux états de base simultanés, grâce au phénomène étrange de superposition quantique. En informatique quantique, la puissance de calcul croit de façon exponentielle et la capacité de calcul double, pour chaque qbit ajouté à l’ordinateur, à condition toutefois que ces qbits puissent conserver leur nature quantique, fragile et très difficile à préserver dans la durée, ce qui suppose notamment que les processeurs composant un ordinateur quantique soient refroidis à une température proche du zéro absolu… On se souvient qu’en septembre 2019, Google avait fait sensation en annonçant qu’il avait conçu une unité de calcul qui avait atteint le niveau de « suprématie quantique », c’est-à-dire le stade auquel, pour un type de calcul donné, une machine quantique était bien plus rapide que n’importe quel superordinateur conventionnel. Pour illustrer le bond réalisé par l'informatique quantique, Google avait alors affirmé qu'il avait pu réaliser avec sa machine Sycamore, refroidie à une température proche du zéro absolu, et ses 53 qubits (54 moins 1, non fonctionnel), un calcul spécialisé en seulement trois minutes, contre 10 000 ans pour un supercalculateur classique… Cette fois, Google a franchi une nouvelle étape qui nous rapproche un peu plus d’un ordinateur quantique complet. Il a annoncé en septembre dernier la réussite d’une nouvelle expérience de chimie quantique, qui utilise toujours la puce Sycamore, dans une version réduite à 12 qubits (Voir Science). Ses chercheurs ont commencé par simuler, à l’aide de la méthode de Hartree-Fock un état simplifié de l’état énergétique d’une molécule composée de 12 atomes d’hydrogène, chacun des 12 qubits représentant l’unique électron d’un des atomes. Ils ont ensuite modélisé une réaction chimique à l’intérieur d’une molécule constituée d’atomes d’hydrogène et d’azote, en intégrant des nombreux paramètres d’énergie, de pression, de vitesse et de température. Ce nouveau calcul était deux fois plus ambitieux que le précédent record de simulation quantique de réaction chimique, détenu depuis 2017 par IBM, en utilisant six qubits. Nicholas Rubin, qui dirige ces recherches, précise que « Ce calcul quantique à 12 qbits est encore modeste et correspond à un système moléculaire d’un niveau de complexité que les scientifiques pouvaient calculer avec les premiers ordinateurs des années 1940. Mais lorsque nous doublerons le nombre de qbits, pour passer à 24, nous arriverons probablement à la capacité de modélisation des ordinateurs des années 1980. Et lorsque nous doublerons à nouveau le nombre de qbits, pour arriver à 48, nous serons probablement au-delà de la capacité de calcul de n’importe quel ordinateur classique actuel. » Google considère qu e l’étape qui vient d’être franchie est très importante car elle montre qu’il est possible d’envisager des ordinateurs quantiques programmables, n’étant pas seulement cantonnés à certains types de calculs et pouvant être utilisés pour n’importe quelle tâche. Toujours en septembre dernier IBM, également bien décidé à rester dans cette course technologique majeure vers le meilleur ordinateur quantique, a annoncé une ambitieuse « feuille de route », vers un ordinateur quantique opérationnel et universel. IBM vise en effet les 127 qbits dès l’année prochaine, pour atteindre les 433 qubits en 2022 et les 1121 qbits en 2023. Ce futur microprocesseur quantique à plus de 1000 qbits sera baptisé « Condor », et il devrait afficher un taux d’erreur très bas (sans doute 0,0001 %, contre 1 % aujourd’hui) et surtout disposer d’une puissance de calcul phénoménale. Pour atteindre cet objectif, les chercheurs d’IBM développent un nouveau type de refroidisseur à dissolution capable de contenir les températures de ces puces de plus en plus volumineuses, et tra vaillent également sur de nouvelles technologies d’interconnexion entre processeurs, pour obtenir, in fine, une machine la plus puissante et la plus fiable possible. Il y a un mois, une autre avancée majeure vers l’ordinateur quantique était annoncée par le constructeur canadien D-Wave Systems. Cette machine, baptisée Advantage, ne contient pas moins de 5000 qubits, soit deux fois et demi plus que la précédente version. Reste que certains scientifiques s’interrogent pour savoir quel est le gain de puissance réelle de cette nouvelle machine présentée par D-Wave Systems. Car ce constructeur canadien, pionnier dans l’informatique quantique, a choisi une voie technologique différente de celle de ses concurrents, et qui nécessite entre 10 à 1000 qubits de correction d’erreur pour 1 qubit de calcul actif. Tristan Meunier, directeur de recherche au CNRS à l’institut Néel à Grenoble, souligne, quant à lui, le réel bond technologique que représente cette nouvelle machine de D-Wave : «la machine de D-Wave s’appuie sur une conception et une fabrication tout à fait remarquables, notamment en ce qui concerne le nombre de qubits, les modules d’interconnexion et la qualité du système de refroidissement. D-Wave est parvenue à compenser la relative faiblesse des performances de leurs qubits par le contrôle d’un grand nombre d’entre eux et une grande connectivité.», précise cet expert en physique quantique. D-Wave ne se prive d’ailleurs pas de souligner, contrairement à ses concurrents, qu'il propose déjà aux entreprises des machines quantiques opérationnelles, vendues avec des progiciels « sur mesure » qui répondent parfaitement aux besoins de ses clients. La firme canadienne précise que ces nouvelles machines sont notamment utilisées pour modéliser et concevoir en un temps record des nouvelles molécules anti-virales. Autre exemple, selon D-Wave, la machine acquise par un grand distributeur de commerce canadien lui aurait permis d’optimiser un processus calculé en 2 minutes contre 25 heures auparavant… Mais Google réplique en expliquant que la voie technologique choisie par D-Wave n’a pas d’avenir car elle va se heurter à des obstacles physiques insurmontables, à mesure que ses machines gagneront en puissance et compteront plus de qbits. Google affirme que son prototype, bien qu’il ne comporte que 60 qbits, est capable de réaliser une succession d’un millier d’opérations sans erreur, et que sa puissance double chaque fois qu’un qubit est ajouté, « ce qui est loin d’être le cas de D-Wave », s’empresse d’ajouter Google. Enfin, il y a quelques jours, IonQ a fait sensation en dévoilant une machine présentée comme « l’ordinateur quantique le plus puissant du monde ». IonQ affirme que les ressources immenses en calcul de cet ordinateur seront prochainement commercialisées, via les plates-formes de développement quantique Amazon Bracket et Azure Quantum de Microsoft. IonQ, mais cela reste à confirmer, serait parvenu à battre le record du volume quantique d’IBM. Cet indicateur permet d’évaluer la performance d’un ordinateur quantique en fonction du ratio entre son efficacité et son taux d’erreurs. IBM a récemment annoncé avoir atteint l’échelon 64 de volume quantique sur un ordinateur de 27 Qubits. IonQ affirme, pour sa part, être parvenu à quatre millions sur l’échelle du volume quantique sur un ordinateur de 32 Qubit s. Cette prouesse résulterait du choix technologique de IonQ, qui repose sur le recours à des ions piégés et stabilisés à l’aide de champs électromagnétiques, une approche qui lui aurait permis de descendre le taux d’erreur par qbit à 0,1 %. Mais alors que les premières machines quantiques sont déjà sur le marché, les recherches se poursuivent activement pour simplifier la fabrication de ce type d’ordinateurs très fragiles et en diminuer le coût de construction et d’exploitation. Les physiciens de l'Université Aalto et du centre de recherche technique (VTT) en Finlande sont parvenus à développer un nouveau détecteur capable de mesurer des quanta (paquets d'énergie) à une résolution jusque-là inégalée (Voir Nature). Cette équipe, dirigée par Mikko Möttönen, a mis au point un nouveau type de détecteur en graphène, capable de mesurer le voltage d'un qubit 100 fois plus rapidement que l'alliage d'or-palladium habituellement utilisé pur cette tâche. Cette avancée majeure pourrait permettre de construire des machines quantiques bien plus fiables et moins onéreuses. Mais si l’on parle beaucoup en ce moment de ces ordinateurs quantiques, dont on attend des performances qui défient l’imagination, on parle moins d’une autre rupture technologique tout aussi importante, qui repose également sur la physique quantique : je veux parler de l’Internet quantique, qui est, lui aussi, en train de sortir des laboratoires et de devenir une réalité qui va faire entrer notre monde numérique dans une nouvelle dimension. Il y a quelques jours, une équipe de recherche regroupant des chercheurs l'IPhT (Institut de Physique Théorique-CEA-CNRS) et des scientifiques des Universités de Genève et de Bâle, est parvenue pour la première fois à « intriquer » les sorties de deux fibres optiques partageant un photon unique à 2 km de distance. Ils ont ainsi pu montrer qu’il est possible de produire et de moduler sur de longues distanc es, grâce à l'utilisation de répéteurs quantiques, des formes d'intrication quantique, ce qui constitue une avancée importante vers la construction d'un internet optique quantique hautement sécurisé. Cette percée scientifique survient seulement quelques semaines après l’annonce, par des chercheurs de l’Université de Bristol (Royaume-Uni), de la mise en service d’un réseau métropolitain de communication quantique présenté comme le plus grand jamais créé (Voir Science Advances). Ce réseau utilise également le principe de l’intrication quantique, et a été déployé sur le réseau de fibre optique de la ville en seulement quelques mois, pour un coût modique, au regard de ses performances (330 000 euros). « Au lieu de répliquer tout le système de communication pour chaque utilisateur, nous avons utilisé le multiplexage qui sépare les photons (particules de lumière) émises par un syst&egr ave;me pour qu’elles puissent être reçues par plusieurs personnes », précise Siddarth Joshi, le responsable de ce projet-pilote, qui ajoute, « Cette technique peut encore être considérablement améliorée, et je suis convaincu que, demain, nous pourrons en faire bénéficier l’ensemble des abonnés à l’Internet ». Nous voyons donc que la technologie quantique, après être restée pendant presque un siècle du domaine de la science-fiction, va totalement révolutionner l’informatique, mais également les télécommunications et plus largement l’ensemble du monde numérique. Concrètement, cela veut dire que dans une dizaine d’années, les centres de recherches, les entreprises et les professionnels, je pense notamment aux médecins, aux ingénieurs, aux architectes, ou encore aux urbanistes, auront accès, pour un coût acceptable, à une puissance de calcul proprement inimaginable aujourd’hui. Cela permettra, par exemple, à un médecin, d’identifier en quelques heures l’ensemble des anomalies et mutations génétiques d’un patient, et d’en prévoir les multiples conséquences pour sa santé. Il sera alors po ssible, toujours grâce à cette puissance quantique distribuée, de concevoir en quelque heures (au lieu de plusieurs années) des médicaments « sur mesure » associant des molécules complexes et répondant exactement aux besoins thérapeutiques d’un malade. Dans le domaine des matériaux, cette puissance quantique permettra de concevoir, au niveau atomique, des matériaux composites extrêmement complexes, possédant des propriétés parfaitement définies, en fonction d’applications précises. Cette puissance quantique permettra également de gérer en temps réel, de manière intelligente, la production, la distribution, le stockage et la consommation finale d’énergie, ce qui permettra une accélération décisive vers la décarbonation totale de notre économie et le passage aux sources d’énergie exclusivement renouvelables. Cette puissance quantique permettra également de concevoir et de réaliser des villes résilientes, autoadaptatives, capables d’anticiper les dysfonctionnements, d’autoréparer leurs infrastructures essentielles et d’adapter à chaque instant l’offre à la demande de transports. On peut également imaginer qu’une telle puissance de calcul disponible permettra enfin d’anticiper des catastrophes naturelles majeurs, que nous ne savons pas encore prévoir aujourd’hui ; je pense notamment aux tremblements de terre dévastateurs, aux éruptions volcaniques, ou à certains événements météorologiques extrêmes, dont la fréquence et la puissance ne cessent d’augmenter, y compris dans notre pays. Nous devons savoir tirer les leçons de cette extraordinaire aventure quantique, qui ne fait que commencer, et comprendre à quel point il est important pour nos sociétés, surtout en ces temps troublés, où l’Humanité est confrontée à de nouvelles menaces d’une ampleur inédite, de continuer à investir sur le temps long, dans des domaines de recherche hautement spéculatifs et fondamentaux. Les pères de la physique quantique eux-mêmes n’auraient sans doute pas imaginé que, ce qui apparaissait alors comme une curiosité conceptuelle et mathématique particulièrement abstraite, déboucherait, un siècle plus tard, sur une révolution technique, économique et finalement sociale absolument considérable. Demain, qui sait si des recherches théoriques qui peuvent parfois nous sembler aujourd’hui inutiles et bien éloignées de nos préoccupations quotidiennes, comme la matière noire, la gravitation quantique ou la recherche de nouvelles particules inconnues, ne seront pas à l’origine d’autres révolutions scientifiques majeures, qui changeront la face du Monde… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | Une équipe de chercheurs a recensé près d'1,8 milliard d'arbres isolés dans l'ouest du Sahara africain et au Sahel. Pour parvenir à réaliser ce décompte, elle a collecté des images satellitaires haute résolution de la zone et les a analysées à l'aide d'algorithmes d'intelligence artificielle. A base d'images satellites et d'algorithmes de reconnaissance d'images, des chercheurs sont parvenus à compter les arbres répartis au sud du Sahara et dans le Sahel. De très nombreux arbres sont présents dans cette zone très vaste mais il est difficile de les recenser car, si certains forment des forêts, d'autres sont plus isolés. Pourtant, tous ces arbres sont essentiels au bon fonctionnement de l'écosystème même si les scientifiques ont peu de données sur cette végétation. Ce sont ces arbres isolés ayant une surface végétale de plus de 3 m² et situés sur une superficie d'1,3 million de km² dans l'ouest du Sahara africain, le Sahel et les zones subhumides que les chercheurs ont décidé de recenser. Dans un premier temps, les chercheurs ont collecté des images de la zone concernée notamment via le programme européen Copernicus, qui propose en accès libre des données issues d'une trentaine de satellites sentinelles d'observation de la Terre. Des images très haute résolution ont aussi été acquises afin de compléter la base de données. Puis toutes ces images ont été analysées à l'aide d'algorithmes d'apprentissage profond et de reconnaissance d'image afin de distinguer les arbres sur ces photos. Ce sont plus d'1,8 milliard d'arbres qui ont été détectés, soit 13,4 arbres par hectare ayant une couverture végétale moyenne de 12 m², détaillent les chercheurs. Ces arbres, beaucoup plus nombreux que ce qu'imaginaient les scientifiques, sont essentiels puisqu'ils permettent de stocker le carbone, fournissent de la nourriture et font office de refuge pour les humains et la faune. Les scientifiques vont pouvoir mieux suivre l'évolution de cette région et estimer plus précisément les taux de déforestation et de désertification. La prochaine étape sera de cartographier précisément l’emplacement et la taille de tous les arbres et, pourquoi pas, préciser leur espèce. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Isolant, semi-conducteur, métallique, transparent, souple… Chaque matériau a ses propriétés intrinsèques. Certains en possèdent toutefois plus et de plus intéressantes, ce sont les matériaux bidimensionnels. Composés de seulement une ou quelques couches d’atomes, ils sont très prometteurs pour la fabrication de la prochaine génération de dispositifs électroniques et optoélectroniques. « Dans ce domaine, le silicium reste encore roi », souligne Jürgen Brugger, professeur à la Faculté des Sciences et Techniques de l’Ingénieur de l’EPFL. « Mais dans le cas de certains dispositifs électroniques, comme ceux souples ou transparents par exemple, le silicium touche à ses limites. Les matériaux bidimensionnels pourraient devenir une alternative valable ». Pour être utilisés, ces matériaux doivent être structurés, c’est-à-dire découpés pour obtenir la forme et la dimension requises pour le dispositif prévu. Il faut également pouvoir ajuster leurs propriétés physiques (par exemple, la largeur de la bande interdite), globalement et localement. Des chercheurs du Laboratoire des microsystèmes, en collaboration avec l’ETH Zürich et IBM, ont développé une nouvelle technique pour y parvenir. Ils utilisent pour cela une sonde à balayage thermique (t-SPL), une minuscule pointe chauffée qui exerce une pression sur le matériau pour lui donner la forme choisie, ici ondulée, en contrôlant la force et la température. « Plusieurs techniques permettent déjà de déformer les matériaux bidimensionnels globalement et localement », indique Ana Conde-Rubio, collaboratrice scientifique du laboratoire. « Notre nouvelle approche thermomécanique permet d'obtenir des déformations plus importantes, ce qui détermine une plus grande variation des propriétés physiques ». En particulier, ils peuvent changer la différence d’énergie entre la bande de valence et la bande de conduction, déterminant ainsi une variation des propriétés électroniques et optiques du matériau. La nouvelle technologie permet de défin ir cette variation de la bande interdite à chaque endroit du matériau, avec une résolution jusqu'à 20 nanomètres. En plus d’agir sur les propriétés, les chercheurs avaient déjà compris comment « couper » ces matériaux avec précision. Leur objectif sera ensuite de combiner ces deux méthodes. « Un tel système permettrait non seulement de fabriquer des dispositifs ayant la forme et les dimensions souhaitées (jusqu'à l'échelle nanométrique), mais aussi de définir leurs propriétés physiques locales à l'aide du même outil, le t-SPL », souligne Xia Liu, également scientifique au Laboratoire des microsystèmes 1. Cette recherche s’inscrit dans un projet plus global, à savoir le développement de nouvelles techniques de fabrication et modification de matériaux non conventionnels, comme les matériaux bidimensionnels. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| | | C’est une découverte majeure dans le domaine de l’électronique. Pour la première fois, des chercheurs des universités de Rochester et de Las Vegas ont réussi à créer un matériau supraconducteur à une température ambiante de 15°C. Jusqu’à présent, l’état de supraconductivité — qui se caractérise par une absence totale de résistance électrique et de champ magnétique — nécessitait des températures très basses, en dessous de 140°C. Dans certains matériaux, un étrange effet quantique s’opère alors. Des paires d’électrons appelés « paires de Cooper » se lient ensemble, alors qu’ils devraient plutôt se repousser. Et ces couples contre-nature ont la faculté de se déplacer à travers les atomes sans jamais s’y accrocher, à l’image d’un fluide parfait. Mais travailler à des températures aussi basses est quand même une sacrée contrainte. Les chercheurs dans l’informatique quantique le savent très bien. C’est pourquoi beaucoup de scientifiques espéraient trouver, un jour, un assemblage permettant d’atteindre la supraconductivité à des températures plus clémentes. Les chercheurs des universités de Rochester et Las Vegas y sont finalement parvenus en combinant de l’hydrogène, du soufre et du carbone. Pour atteindre cet état de grâce, il faut appliquer une pression de 267 gigapascals, soit environ 2,6 millions de fois la pression atmosphérique. C’est de l’ordre de grandeur de la pression qui règne dans le noyau interne de la Terre (350 gigapascals). Pour atteindre ce niveau de pression, les chercheurs ont utilisé ce qu’on appelle une « cellule à enclumes de diamants » ou « presse à enclume de diamants », où la matière est compressée par deux faces de diamants. Article rédigé par Georges Simmonds pour RT Flash University of Rochester | | | |
| Des chercheurs de l’EPFL ont résolu un problème contraignant avec la stabilisation de la formulation la plus performante de films de pérovskite aux halogénures métalliques, un élément majeur utilisé dans de nombreuses applications, notamment les cellules photovoltaïques. Les pérovskites appartiennent à une classe de matériaux composés de matières organiques associées à un métal. De par leur structure et leurs propriétés intéressantes, les pérovskites sont en première ligne dans la recherche de matériaux, où elles sont étudiées pour une utilisation dans un large champ d’applications. Très prisées, les pérovskites aux halogénures métalliques sont envisagées pour une utilisation dans les cellules photovoltaïques, les éclairages à LED, les lasers et les photodétecteurs. À titre d’exemple, le rendement de conversion de puissance des cellules photovoltaïques à pérovskites est passé de 3,8 % à 25,5 % en seulement 10 ans, dépassant celui des autres cellules photovoltaïques en couches minces, y compris celles en silicium polycristallin qui est le principal matériau du marché. On fabrique généralement les pérovskites en mélangeant et en déposant par couche divers matériaux sur un substrat conducteur transparent, ce qui produit des films légers et minces. Ce processus, appelé « déposition chimique », est durable et relativement économique. Mais un problème se pose. Depuis 2014, on fabrique les pérovskites aux halogénures métalliques en mélangeant des cations et des halogénures avec du formamidinium. (FAPbI3). Cela tient au fait que cette formulation permet un rendement de conversion de puissance élevé dans les cellules photovoltaïques à pérovskites. Mais parallèlement, la phase la plus stable du FAPbI3 est photo-inactive, autrement dit elle ne réagit pas à la lumière, ce qui va à l’encontre du rôle d’un collecteur solaire. De plus, les cellules photovoltaïques constituées de FAPbI3 présentent des problèmes de stabilité à long terme. Aujourd’hui, sous la direction de Michael Grätzel et d’Anders Hafgeldt, des chercheurs à l’EPFL ont développé une méthode de dépôt qui élimine les problèmes liés au formamidinium, tout en conservant la conversion élevée des cellules photovoltaïques à pérovskites. Les travaux ont été publiés dans la revue scientifique Science. Dans la nouvelle méthode, les matériaux sont d’abord traités par une vapeur de méthylammonium thiocyanate (MASCN) ou de formamidinium thiocyanate (FASCN). Cette innovation transforme les films de pérovskite FAPbI3 photo-inactifs en films photosensibles. Les scientifiques ont utilisé les nouveaux films FAPbI3 pour fabriquer des cellules photovoltaïques à pérovskites. Les cellules ont affiché un rendement de conversion de puissance de plus de 23 % et une stabilité opérationnelle et thermique à long terme. Elles présentaient également une faible perte de tension en circuit ouvert (330 mV) et une faible tension d’alimentation d’électroluminescence (0,75 V). Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| L’Agence internationale de l’énergie (IEA) vient de rapporter que « le solaire est désormais l’électricité la moins chère de l’Histoire ». En effet, l’énergie solaire est en moyenne 20 à 50 % moins chère à produire dans la plupart des pays du monde. Plus de 130 d’entre eux ont pris des mesures pour réduire le coût de construction des nouvelles installations solaires. L’IEA a pris en compte ces mesures mises en place à travers le monde pour déterminer que le solaire est devenu l’électricité la moins chère en 2020. Le coût de production de l’énergie solaire va continuer à baisser, ce qui contribuera à renforcer sa domination sur le marché au cours de la prochaine décennie. D’ailleurs, l’énergie solaire avait déjà enregistré un record historique en 2017. Elle était devenue la source d’énergie renouvelable la plus performante. Deux ans plus tard, en 2019, une start-up avait développé un logiciel d’intelligence artificielle pour créer une technologie qui pourrait contribuer à réduire considérablement les émissions de carbone. L’Union Européenne a comme objectif d’utiliser 32 % d’énergies renouvelables d’ici 2030. En prenant en compte cet objectif ainsi que le coût de production de l’énergie solaire en baisse, il ne fait aucun doute que le solaire va gagner en popularité au sein de l’Union Européenne. Cette année, le coût moyen de la production d’électricité avec de l’énergie solaire se situe entre 35 et 55 $ par mégawattheure aux États-Unis, en Europe, en Chine et en Inde. Pour vous donner une idée, le coût de production était d’environ 100 $ par mégawattheure il y a quatre ans et 300 $ il y a dix ans. À titre de comparaison, le coût de la production d’électricité avec du charbon est entre 55 et 150 $ par mégawattheure. Il n’a pas presque pas changé en dix ans. Enfin, l’Agence internationale de l’énergie estime que la demande en électricité, relativement basse en ce moment, augmentera une fois que la pandémie de Covid-19 sera contrôlée et que l’économie mondiale se redressera. Article rédigé par Georges Simmonds pour RT Flash The Verge | | | |
| Le nouveau prototype de réacteur à fusion nucléaire du Royaume-Uni, baptisé Mega Amp Spherical Tokamak (Mast) Upgrade, a été mis sous tension le 29 octobre, après sept ans de travaux de construction. L’objectif de cette installation d’un montant de 61 millions d’euros est de démontrer la faisabilité de la fusion thermonucléaire pour produire à grande échelle de l’électricité. Il est basé sur le dispositif original Mast, qui a fonctionné de 2000 à 2013, et devrait permettre des performances plus élevées, selon l’Autorité britannique de l’énergie atomique. Actuellement, les réacteurs nucléaires qui produisent de l’électricité s’appuient sur la technologie de fission nucléaire, qui nécessite que des éléments chimiques lourds soient scindés en éléments plus légers. La technologie de fusion, quant à elle, essaie de reproduire ce qui se passe dans le Soleil : des éléments chimiques légers sont fusionnés en éléments plus lourds. Contrairement à la fission, elle ne produit pas de déchets radioactifs de haute activité à vie longue et ne recourt pas à des matériaux comme l’uranium et le plutonium, qui peuvent être utilisés pour produire des armes. Des avantages indéniables. Mais la fusion nucléaire est encore loin d’être opérationnelle. Dans le monde, plusieurs prototypes de réacteurs, de type tokamak notamment, sont à l’essai ou en cours de construction. Contrairement aux tokamaks habituels, celui qui vient d’être mis en route au Royaume-Uni n’a pas la forme d’un tore (ou donut), mais celle d’une pomme évidée. Les chercheurs pensent que cette forme peut conférer une plus grande stabilité au plasma (gaz ionisé) en rotation qui se trouve à l’intérieur. Les chercheurs britanniques espèrent que Mast Upgrade permettra de réaliser des avancées suffisantes en matière de rendement pour pouvoir passer à la construction d’une centrale de démonstration sphérique fondée sur la technologie du tokamak à l’horizon 2040. Article rédigé par Georges Simmonds pour RT Flash Science Alert | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Les scientifiques se pressaient autour de la boîte de Petri de Yuanchao Xue. Ils ne parvenaient pas à identifier les cellules qu’ils y voyaient. « On voyait un grand nombre de cellules hérissées de filaments à la surface », se souvient Xiang-Dong Fu, le chef de l’équipe de recherche de l’Université de Californie à San Diego. « Aucun d’entre nous ne s’y connaissait vraiment en neurosciences, on a donc demandé autour de nous et quelqu’un nous a dit que c’étaient des neurones ». L’équipe, composée de spécialistes de la recherche fondamentale en biologie cellulaire et moléculaire, est médusée. D’où peuvent bien venir ces neurones ? Yuanchao Xue a laissé une expérience ratée, une boîte de Petri remplie de cellules cancéreuses humaines, dans l’incubateur, et, quand il est revenu quinze jours plus tard, c’était pour la retrouver pleine de neurones. Il n’est pas courant qu’un type de cellule inattendu apparaisse mystérieusement dans une boîte de Petri. Des scientifiques du monde entier ont consacré des fortunes et d’innombrables heures à essayer de générer des neurones en laboratoire – les retombées pour les maladies neurodégénératives seraient en effet considérables. Et voilà qu’une équipe de biologistes qui étudiait une protéine de liaison à l’ARN [acide ribonucléique] appelée “PTB” venait sans le savoir de créer une boîte de Petri entière de neurones. « Je suis resté interloqué un bon moment, je ne comprenais pas ce qui clochait avec mes cellules », se souvient Yuanchao Xue, aujourd’hui chercheur à l’Institut de biophysique de l’Académie des sciences de Pékin. Il essayait d’extraire les protéines PTB de cellules cancéreuses humaines à l’aide de petits ARN interférents [les pARNi, des ARN capables d’empêcher l’expression d’un gène]. Il s’attendait à ce que ces lignées cellulaires prolifèrent comme elles ont généralement tendance à le faire, mais elles ont cessé leur croissance, si bien qu’il les a laissées de côté pendant quinze jours. Persuadés que la boîte de Petri avait été contaminée, Yuanchao Xue et ses collègues ont recommencé l’exp& eacute;rience… « On a refait le test sur toutes les cellules qui nous tombaient sous la main. Chaque fois, on a procédé de la même manière en retirant la protéine PTB et, chaque fois, la cellule s’est transformée en neurone », observe Xiang-Dong Fu. Des fibroblastes [cellules du tissu conjonctif], des cellules cancéreuses, des cellules gliales [du système nerveux]… L’équipe s’est aperçue que, dès qu’elle extrayait les PTB d’une cellule, celle-ci se métamorphosait en neurone. Article rédigé par Georges Simmonds pour RT Flash Courrier International | | | |
| Des scientifiques de l’Université de Genève (UNIGE) ont mis au point une technique permettant d’identifier rapidement, parmi un grand nombre de médicaments existants, la combinaison synergétique et la dose optimales de produits ayant pour effet de tuer les cellules tumorales sans affecter les cellules saines. Dans un article à lire dans la revue Molecular Oncology et en collaboration avec les Hôpitaux universitaires de Genève (HUG) et le Centre universitaire médical d’Amsterdam, ils démontrent l’efficacité de cette approche dans le cas du cancer colorectal. Les meilleures combinaisons de médicaments identifiées ont été évaluées grâce à des tests in vitro et, pour la première fois, in vivo sur des modèles de souris. Toutes ont démontré une meilleure efficacité que la chimiothérapie et ce, sans provoquer de toxicité apparente sur les cellules saines ou sur les animaux. Cette étude ouvre un peu plus la voie vers un traitement personnalisé, efficace et sûr contre le cancer. « La technique que nous avons développée et brevetée (appelée TGMO pour phenotypically-driven therapeutically guided multidrug optimization) allie expérimentation et analyse statistique très poussée », explique Patrycja Nowak-Sliwinska, professeure à la Section des sciences pharmaceutiques de la Faculté des sciences de l’UNIGE. « Elle permet de réaliser rapidement, c’est-à-dire en peu d’étapes, des tests simultanés sur des cellules cancéreuses et saines (provenant du même patient) et d’évaluer toutes les combinaisons possibles de médicaments que nous avons sélectionnés à cette fin. Les synergies positives sont conservées, les antagonismes rejetés ». L’expérience présente a intégré 12 médicaments, tous récemment approuvés pour la commercialisation ou en phase finale des tests cliniques. Des cellules colorectales cancéreuses, provenant de lignées parfaitement caractérisées pour les besoins des études scientifiques, ont été soumises à la machinerie du TGMO. L’objectif de la recherche est donc de déterminer la combinaison de produits s’approchant le plus du résultat voulu : la mort de la cellule cancéreuse, une absence d’effet sur la cellule saine et tout cela grâce à une dose la plus faible possible. La procédure a abouti, pour chaque lignée de cellules, à des combinaisons de trois ou quatre médicaments, toutes légèrement différentes les unes des autres. L’activité de ces combinaisons a ensuite été vérifiée dans des conditions un peu plus complexes qu’une seule cellule : d’abord sur un modèle en trois dimensions d’une tumeur humaine contenant des cellules cancéreuses mais aussi d’autres types, comme c’est le cas dans la réalité, puis sur des souris servant de modèle expérimental pour le cancer colorectal. Les combinaisons de médicaments ont permis de réduire la croissance des tumeurs d’environ 80 % et ont surpassé de manière significative et systématique les performances des chimiothérapies. Elles ont révélé une absence totale de toxicité sur les cellules saines, contrairement aux chimiothérapies, et une activité de bon augure sur des cellules cancéreuses fraîchement prélevées sur des patients actuels en Suisse. « C’est la première fois que l’on effectue des tests in vivo avec des combinaisons de médicaments issues de notre technologie TGMO », s’enthousiasme Patrycja Nowak-Sliwinska. Cette étude montre qu’elle est capable d’identifier efficacement des combinaisons optimales de médicaments sélectifs et puissants à faible dose, indépendamment du statut de mutation de la tumeur et plus performants que la chimiothérapie conventionnelle. Nous sommes actuellement en train de discuter la mise en place d’une étude clinique sur des patients afin d’aller plus loin. Mais cette étape-là, dont le financement dépend beaucoup de l’intérêt que pourrait porter le secteur privé sur notre démarche, est surtout l’affaire de médecins cliniciens ». La technologie TGMO est conçue de telle façon qu’elle arrive à obtenir un résultat en moins de deux semaines, ce qui correspond au temps que les médecins se donnent pour déterminer le traitement à administrer à un patient ou une patiente dès que le diagnostic a été posé. « Cette approche représente clairement l’avenir pour les patients oncologiques », renchérit Thibaud Koessler, médecin adjoint au Service d’oncologie des HUG et un des auteurs de l’article. « Pouvoir tester «ex vivo» différents médicaments et sélectionner pour chaque patient la combinaison à laquelle le cancer sera le plus sensible devrait permettre d’augmenter l’efficacité des traitements tout en diminuant leur toxicité, deux des aspects les plus problématiques des thérapies actuelles ». Article rédigé par Georges Simmonds pour RT Flash UNIGE | | | |
| Les tumeurs composées de cellules plus molles et plus grosses à leur périphérie sont plus susceptibles de se propager, selon les travaux de scientifiques américains. Le professeur adjoint Ming Guo et ses collègues du Massachusetts Institute of Technology (MIT) pensent que cette nouvelle connaissance pourrait permettre de mieux adapter les traitements contre le cancer à l'avenir. L’équipe a mené ses expériences sur des tumeurs humaines du cancer du sein qu’elle a développées en laboratoire. Elle a suivi l’évolution de cellules individuelles au sein d’une tumeur initialement bénigne, en montrant comment les propriétés physiques de ces cellules poussent la tumeur à devenir invasive, ou métastatique. Elle a ainsi découvert qu’au fur et à mesure que les tumeurs grossissaient et amassaient de nouvelles cellules sur une période d’environ deux semaines, les cellules à l’intérieur de la tumeur étaient petites et rigides, tandis que les cellules à la périphérie étaient molles et plus grosses. Ces cellules périphériques étaient plus susceptibles de s’étendre au-delà de la tumeur, formant des pointes invasives qui finissaient par se détacher pour se propager ailleurs, expliquent les auteurs. En outre, les chercheurs ont découvert que les cellules périphériques étaient plus molles parce qu’elles contiennent plus d’eau que celles du centre. Pour leur part, les cellules centrales des tumeurs sont entourées d’autres cellules qui se pressent vers l’intérieur, ce qui fait sortir l’eau qu’elles contiennent et la font entrer dans les cellules extérieures par des canaux de la taille du nanomètre appelé jonctions interstitielles. Lorsqu’elles grossissent, elles accumulent des contraintes de compression à l’intérieur, et cela va comprimer l’eau du noyau vers les cellules à l’extérieur, qui vont lentement gonfler avec le temps et devenir plus molles aussi ; elles sont donc plus aptes à envahir, ajoute le chercheur. Lorsque l’équipe de recherche a traité les tumeurs pour extraire l’eau contenue dans les cellules périphériques, ces cellules sont devenues plus rigides et moins susceptibles de former des pointes invasives associées à la propagation. À l’inverse, lorsqu’elle a inondé la tumeur avec une solution diluée, les mêmes cellules périphériques ont gonflé et rapidement formé des pointes en forme de branches qui ont envahi le milieu environnant. Ces résultats laissent à penser que la modification des propriétés physiques des cellules cancéreuses pourrait retarder ou même empêcher la propagation d’une tumeur. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | | |
| La prévalence de l’artère médiane dans l’avant-bras des humains est en forte augmentation depuis la fin du 19e siècle, affirment des scientifiques australiens et suisses, qui estiment que l’espèce continue d’évoluer. La Docteure Teghan Lucas de l’Université Flinders et ses collègues estiment que la sélection naturelle pourrait en être la raison principale. Selon eux, cette réalité est un exemple parfait des changements microévolutifs qui continuent de survenir dans l’anatomie du corps humain. Il existe trois grands types de vaisseaux sanguins : les artères, les veines et les capillaires. Le sang qui y circule est mis en mouvement par le cœur, un muscle qui fonctionne comme une pompe. L’artère médiane est le principal vaisseau qui alimente en sang l’avant-bras et la main lorsque le bébé se forme dans l’utérus de la mère, mais elle fait place à deux artères au cours du développement dans l’utérus, la radiale et la cubitale. La plupart des adultes ne présentent donc pas d’artère médiane, mais un nombre croissant de cas la conservent, de sorte qu’une personne peut posséder les trois artères. Les chercheurs estiment que cette tendance évolutive se poursuivra chez les personnes nées à partir des années 1980, si bien que la présence de l’artère médiane devient de plus en plus courante dans l’avant-bras humain. L’humain moderne évolue à un rythme plus rapide qu’à aucun moment au cours des 250 dernières années, affirme la Docteure Lucas. La prévalence était d’environ 10 % chez les personnes nées au milieu des années 1880, contre 30 % chez celles nées à la fin du 20e siècle, ce qui représente une augmentation significative sur une période de temps assez courte lorsqu’il s’agit d’évolution, ajoute la Docteure Lucas. Si cette tendance se poursuit, une majorité de personnes conserveront l’artère médiane dans l’avant-bras d’ici 2100, notent les auteurs de ces travaux. Article rédigé par Georges Simmonds pour RT Flash JOA | | | |
| Des scientifiques de l'Université de Hong Kong ont confirmé l’efficacité d’une nouvelle stratégie antivirale pour le traitement du COVID-19 : des métallodrogues déjà disponibles pour traiter d’autres pathologies pourraient, en combinaison avec d’autres agents, supprimer la réplication du SRAS-CoV-2 et soulager les symptômes associés aux virus. La preuve apportée in vitro et in vivo chez un modèle animal ouvre une nouvelle option thérapeutique déjà disponible. Cette équipe a choisi la piste du repositionnement et précisément du repositionnement des métallodrogues qui, comme leur nom l’indique, sont basées sur des composés organométalliques. Certains de ces agents sont déjà utilisés pour le traitement de certains cancers. C’est le cas par exemple du cisplatine, un complexe à base de platine utilisé dans le traitement de plusieurs cancers. Plus généralement, soulignent les chercheurs, les composés métalliques sont utilisés comme agents antimicrobiens : on connaît là encore la capacité antibactérienne du cuivre et de ses composés à réduire le taux d’infections nosocomiales à l’hôpital. Cependant l’activité antivirale des métaux est moins étudiée. Après avoir criblé toute une série de métallodrogues et de composés apparentés, l'équipe de recherche identifie la ranitidine bismuth citrate (RBC) comme un agent anti-SARS-CoV-2 très prometteur. Ce médicament prescrit dans le traitement des ulcères d’estomac se montre ici efficace in vitro et in vivo (chez un hamster modèle d’infection à SARS-CoV-2). Ainsi, la charge virale est considérablement réduite (plus de 1.000 fois) dans des globules rouges exposés au RBC et par plus de 100 fois dans les voies respiratoires supérieures et inférieures chez le hamster modèle. Ces chercheurs ont identifié la cible de RBC : RBC cible l'hélicase Nsp13 une protéine vitale pour le virus SARS-CoV-2. Au-delà de l’efficacité de cette métallodrogue, la recherche met en évidence les hélicases virales comme cible médicamenteuse et le potentiel des médicaments à base de bismuth, voire d'autres métallodrogues pour le traitement des infections par le SRAS-CoV-2. Enfin, les chercheurs rappellent que ces métallodrogues pourraient être utilisées en clinique en combinaison avec d’autres antiviraux ayant déjà démontré leur efficacité anti-SRAS-CoV-2, comme la dexaméthasone ou l'interféron-β1b. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Des chercheurs de l’Université d’Aarhus ont montré que le fumarate de diméthyle, un médicament déjà utilisé contre certaines formes de sclérose en plaques, semblait également efficace contre le coronavirus. Christian Kanstrup Holm et David Olagnier sont les deux auteurs principaux de cette recherche. Avant l’apparition du nouveau coronavirus, ils travaillaient sur un nouveau médicament anti-viral, le 4-octyl-itaconate, proche d'une substance déjà existante et qui serait efficace contre l’herpès, zika et contre la sclérose en plaques. « Ensuite, le coronavirus est apparu, nous l’avons donc testé, et nous avons constaté un effet important », souligne Christian Kanstrup Holm. « Le nombre de réplications du coronavirus dans les cellules humaines a drastiquement diminué ». Le médicament a également permis de bloquer la réaction immunitaire, néfaste aux malades. « Les gens ne meurent pas seulement du virus en lui-même », ajoute le spécialiste, « mais aussi de l’inflammation qui se propage dans leurs poumons ». Après les premiers essais menés sur le 4-octyl-itaconate, les chercheurs ont testé le fumarate de diméthyle, car ce médicament est autorisé par les instances sanitaires : les résultats ont été également positifs. « Comme nous avons réalisé des recherches de base, nous ne savons pas si le médicament fonctionne en cas d’infection d’un humain, ce sont les experts en maladie infectieuse qui vont faire ce test », explique Christian Kanstrup Holm. « Néanmoins, je dois dire que je suis très optimiste ». Avec son équipe, ils espèrent que des essais sur l’humain pourront être menés. Depuis mars 2020, l’Institut Pasteur de Lille et la société pharmaceutique Apteeus collaborent pour analyser près de 2000 molécules déjà autorisées sur le marché du médicament. L’objectif est de trouver laquelle ou lesquelles seraient efficaces contre la Covid-19. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Le syndrome d’Alström est une maladie génétique rare : environ 900 personnes en seraient atteintes dans le monde. La pathologie provoque une dégénérescence de la rétine, une obésité précoce et un diabète de type 2. Les personnes atteintes souffrent parfois d’insuffisance rénale, de surdité ou de troubles cardiaques. Le fait qu’elle soit liée à la fois au diabète de type 2 et à l’obésité a intéressé des chercheurs de l’Inserm, car les deux pathologies sont liées : 80 % des personnes atteintes d’obésité souffrent de diabète de type 2. L’étude de ce syndrome leur a permis de déterminer le rôle d’une protéine dans l’apparition du diabète, et ouvre la voie à de nouvelles thérapies. Le syndrome d’Alström est provoqué par une mutation du gène ALMS1, associé à une protéine du même nom. Chez les personnes atteintes, ce gène ne remplit plus ses fonctions et c’est ce qui cause les anomalies du tissu adipeux à l’origine du diabète de type 2 : les adipocytes, qui forment ce tissu, ne parviennent plus à absorber le glucose. « En empêchant les adipocytes d’absorber le glucose, la perte de fonction d’ALMS1 est directement responsable d’un diabète de type 2, ce qui en fait une cible thérapeutique très intéressante », détaille Vincent Marion, directeur de la recherche menée au laboratoire de génétique médicale de l’Inserm à Strasbourg. Un test réalisé sur des souris montre qu’en rétablissant le fonctionnement de ce gène, les tissus peuvent à nouveau assimiler le glucose, et il est ainsi possible de retrouver un équilibre glycémique, donc de soigner le diabète. L’équipe de recherche a ensuite travaillé sur des adipocytes de personnes atteintes du syndrome d’Almström pour comprendre les mécanismes liés au gène ALMS1. Ils ont constaté qu’il est le déclencheur d’une série de réactions moléculaires liées à l’insuline. « Grâce à ce travail sur un modèle de maladie rare, nous avons découvert une molécule capable à elle seule d’augmenter l’absorption du glucose par les adipocytes et de maintenir un bon équilibre glycémique. Cela en fait une très bonne cible thérapeutique pour lutter contre le diabète de type 2 en général, associé ou non à une obésité », ajoute le chercheur. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Il était théoriquement possible de faire voyager la vie d’une planète à un autre : cette fois, on en est sûr. Une expérience menée à bord de la station spatiale internationale (ISS) entre 2015 et 2018 consistait à installer des bactéries sur les parois de l’ISS, à l’extérieur, et les y oublier pendant des années avant d’aller vérifier si elles avaient survécu. La réponse est oui. On sait de ces bactéries, du genre des Déinocoques, qu’elles peuvent former des agrégats pour se protéger des rayons ultraviolets dans l’atmosphère terrestre : « Les cellules près de la couche de surface sont tuées par les rayons UV, mais les couches de cellules mortes protègent les cellules en dessous ». Dans le vide spatial, il s’avère que c’est pareil. Les échantillons ont été préparés et installés hors de l’ISS par l’astronaute américain Scott Kelly en 2015. Une partie a été récupérée après un an d’exposition à l’espace, une autre après deux ans, et le reste après trois ans. Tous les échantillons ont ensuite été analysés en laboratoire sur Terre. Là, les chercheurs japonais ont constaté que les agglomérats de bactéries d’une épaisseur supérieure à un demi-millimètre ont bien survécu, protégés des radiations solaires par leur couche de cellules mortes. En extrapolant l’état dans lequel ils les ont retrouvées (notamment les dommages causés à leur ADN), l’équipe estime que les Deinococcus radiodurans pourraient vivre entre quinze et quarante-cinq ans dans ces conditions d’exposition partielle aux UV (car l’ISS n’est pas toujours orienté au soleil). Et si elles flottaient librement dans l’espace, constamment illuminées par le Soleil, elles pourraient tenir entre deux et huit ans. Un temps largement suffisant pour faire le voyage Terre-Mars, par exemple (même si la plupart des météorites qui font le trajet inverse ont plutôt mis des milliers d’années).Voilà de quoi confirmer la possibilité de la panspermie, l’hypothèse proposant que la vie issue d’une planète puisse en contaminer une autre en voyageant dans l’espace – et expliquer l’apparit ion de la vie sur Terre. Article rédigé par Georges Simmonds pour RT Flash FIM | | | |
| Plusieurs études se sont intéressées récemment aux effets de la consommation de café au cours de la vie sur certains aspects du vieillissement. Ainsi le café améliore la cognition et les performances physiques de la personne âgée. Une troisième étude s’est intéressée aux effets du café et du thé sur la survie des femmes jusqu’à un âge très élevé. Dans une première étude, un groupe chinois a examiné l’association possible de la consommation de café normal, de café décaféiné et de caféine sur la performance cognitive de 2 513 adultes âgés d’au moins 60 ans à partir des données américaines de la National Health and Nutrition Examination Survey 2011-2014. Les consommations de café et de caféine ont été obtenues sur la base des souvenirs de deux périodes de 24h. La performance cognitive a été évaluée par le test validé du Consortium to Establish a Registry for Alzheimer’s Disease, un test sur la facilité à se remémorer des noms d’animaux et le Digit Symbol Substitution Test. Par rapport aux non-consommateurs de café, la consommation de 266 à 495 g/j améliorait de 44 % la performance dans le score du DSST. Comparés aux non-consommateurs de café décaféiné, les individus consommant au moins 384,8 g/j voyaient leur score au test DSST amélioré de 32 %. Enfin, comparé au quartile le plus faible de consommation de caféine provenant du café, le score des consommateurs au test CERAD était amélioré de 38 %. Des associations en forme de L étaient apparentes pour le café en général, le café caféiné et la caféine provenant du café pour les scores au test DSST et au test CERAD. Leur étude suggère que la consommation de café en général, de café caféiné et de caféine provenant du café est associée à une amélioration de la performance cognitive, ce qui n’est pas le cas du café décaféiné et montre clairement le rôle du café dans cette association. Une seconde étude, finlandaise, a exploré le rôle potentiel du café dans la performance physique chez l’individu âgé. La consommation habituelle de café a été associée à un risque réduit de développer diverses maladies chroniques liées à une mauvaise performance physique. Ici, les auteurs se sont intéressés aux associations entre la consommation de café et la performance physique dans une communauté d’hommes très âgés de la Helsinki Businessmen Study (HBS). Les auteurs ont sélectionné au hasard un échantillon de 126 survivants dans l’étude HBS, âgés en moyenne de 87 ans, et ont mesuré leur performance physique à l’aide de tests dédiés Short Physical Performance Battery (SPPB). La consommation de café a été déduite de leurs relevés quotidiens sur 3 jours. Il apparaît que la consommation de café est associée positivement à une vitesse de marche plus rapide, à un meilleur score SPPB et à un meilleur score de levers d’une chaise. L’association du café avec la vitesse de marche plus rapide persiste après ajustement pour l’âge, le tour de taille, l’activité physique, le rythme cardiaque, et la protéine C-réactive hautement sensible. Il apparaît donc que la consommation plus élevée de café au cours de la vie est associée de manière indépendante à une meilleure performance physique chez les hommes et une accélération de la marche qui sont d’importants déterminants de la santé et de la survie des personnes âgées. Article rédigé par Georges Simmonds pour RT Flash Senior Actu | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|