| | | | | | | Edition du 26 Février 2021 |
| |
|
| Edito Les trous noirs : grands architectes de l’Univers ?
Cette semaine, je reviens sur la question passionnante de la nature intime des trous noirs et du rôle fondamental que ces mystérieux objets cosmiques semblent jouer dans l’évolution et l’équilibre de l’Univers. De récentes découvertes, nous allons le voir, viennent effet de confirmer à quel point ces objets recèlent d’étonnantes propriétés et exercent des effets puissants et subtils sur l’ensemble du Cosmos. Si l’idée de trou noir fut imaginée dès la fin du XVIIIème siècle par Pierre-Simon de Laplace, dans le cadre de la physique newtonienne de l’époque, c’est le physicien Karl Schwarzschild (1873-1916) qui, le premier, proposa en 1916 une solution exacte aux équations de gravitation d’Einstein, permettant d’intégrer ces objets singuliers dans le nouveau cadre de la relativité générale. Ce grand physicien, mort prématurément à 43 ans, comprit qu’une masse aussi gigantesque que celle d'une étoile très dense, concentrée dans un petit volume, déformerait le tissu de l'espace-temps à un tel point que plus rien, pas même la lumière, ne pourrait échapper à son champ gravitationnel. Un demi-siècle plus tard, un autre grand physicien et cosmologiste, Stephen Hawking (1942-2018), fut à l’origine d’une nouvelle avancée décisive dans la connaissance des trous noirs, en montrant, dans les années 70, que ces derniers se caractérisaient par une « évaporation quantique », dans un processus d’autant plus rapide que ces trous noirs étaient petits. Ce phénomène qui articule de manière fondamentale la relativité et la physique quantique se traduit par un rayonnement, lui aussi d’autant plus intense que le trou noir est minuscule, appelé depuis, le rayonnement de Hawking. C’est en 1967 que le physicien John Wheeler (1911-2008), l'un des pères de la cosmologie quantique, qui collabora avec Einstein, popularisa le terme de « trou noir », à l’occasion d’une conférence mémorable donnée à l’Institut des Etudes Spatiales Goddard (GISS). Un demi-siècle plus tard, le 10 avril 2019, le monde ébahi put, pour la première fois contempler la photographie d’un trou noir, une prouesse scientifique et technique rendue possible par un long et patient travail d’observation et d’analyse utilisant un vaste réseau de radiotélescopes terrestres fonctionnant de manière parfaitement synchronisée. Trois ans auparavant, en septembre 2015, les physiciens américains Rainer Weiss, Kip S. Thorne et Barry C. Barish, parvinrent, pour la première fois, grâce aux nouveaux interféromètres gé ;ants LIGO et VIRGO, à détecter les effets des ondes gravitationnelles résultant de la collision de deux trous noirs situés à 1,3 milliard d’années-lumière. Il y a quatre mois, LIGO et VIRGO ont permis de faire une nouvelle découverte de taille : celle d’une nouvelle catégorie de trou noir, appelés « intermédiaires ». Ces trous noirs de taille moyenne sont plus lourds que ceux résultant de l’effondrement d’étoiles massives, mais bien plus légers que les trous noirs supermassifs que l’on trouve au centre des galaxies. Le trou noir découvert possède en effet une masse de 142 soleils, issu de la fusion de deux trous noirs de 85 et 65 fois la masse du Soleil. Il s’agit du trou noir le plus lourd jamais observé avec les ondes gravitationnelles et il ouvre la voie d’une meilleure compréhension de la formation des trous noirs supermassifs. En effet, ces deux trous noirs sont entrés en collision à une vitesse de l’ordre de la moitié de celle de la lumière et ont fusionné en un trou noir unique. Celui-ci, conformément aux lois de la relativité générale, est plus léger que la somme des deux trous noirs initiaux car une partie de leur masse (l’équivalent de 3 soleils) s’est convertie en énergie, sous la forme de vagues d’ondes gravitationnelles selon la célèbre formule d’Einstein E=mc2. En aout dernier, une étude publiée par des chercheurs de l’Université Cornel (Etat de New-York) a montré que les émissions inhabituelles de rayons gamma pourraient révéler que ce qui semble être des trous noirs supermassifs serait en fait d’énormes trous de ver. Les trous de ver sont des tunnels dans l’espace-temps qui peuvent théoriquement permettre de voyager entre deux points très éloignés de l’espace. Ces étranges objets ont été théorisés en 1957 par le grand physicien John Wheeler, dans le cadre de la théorie de la relativité générale. Dans cette étude, les chercheurs se sont concentrés sur les trous noirs supermassifs, ayant des masses faisant jusqu’à plusieurs dizaines de milliards de fois celle du Soleil. On trouve de tels trous noirs au centre de pratiquement toutes les galaxies, à commencer par la nôtre, la Voie lactée, qui abrite Sagittarius A, un trou noir d’une masse d’environ 4,5 millions de masses solaires (Voir Arxiv). Les chercheurs ont comparé les émissions de ces trous de ver avec celles de noyaux galactiques actifs (AGN), dont les émissions électromagnétiques sont bien plus intenses que celles d’une galaxie classique entière. Ces scientifiques ont réussi à modéliser l’évolution des flux de matière s’écoulant à travers les deux entrées d’un trou de ver jusqu’à l’endroit où ces ouvertures convergent. Ils ont alors découvert que ces trous de ver, encore hypothétiques, pourraient émettre une signature gamma spécifique et identifiable dans certaines circonstances particulières, comme la collision de matière en train de s’agglomérer à l’intérieur du trou de ver. La rencontre d’un trou de ver et d’un trou noir, et leur combinaison dans un système binaire &eacut e;mettant des flux d’énergie tout à fait caractéristiques pourraient également être bientôt détectées via des ondes gravitationnelles que peuvent observer Ligo et Virgo, les deux interféromètres laser géants mondiaux. Selon l’un des chercheurs qui a dirigé ces travaux, Dejan Sojkovic, « Il est tout à fait possible que SgA soit un trou de ver : dans ce cas, il aurait exactement le même aspect qu'un trou noir depuis l'extérieur, et ce n'est qu'en passant son horizon des événements qu'on pourrait voir la différence ». Selon cette étude, il serait même possible de vérifier sur le plan expérimental cette hypothèse car, si SgA est un trou de ver, il est très probable que des étoiles orbitent de l'autre côté de ce passage spatio-temporel. Si tel est le cas, leur champ gravitationnel devrait se manifester à travers ce trou de ver, et avoir un effet suffisant pour perturber l’orbite des étoiles de SgrA ! Cet effet reste pour l’instant trop faible pour être mesuré avec les outils de détection actuels, mais ces scien tifiques sont persuadés que ces éventuelles perturbations seront mesurables d’ici 10 ans, grâce à l’arrivée de la prochaine génération de détecteurs…. Il y a trois mois, une autre étude réalisée par des chercheurs russes a également émis l’hypothèse que certains trous noirs supermassifs pourraient être des trous de ver (Voir Space). Selon ces recherches, les trous de ver hypothétiques pourraient émettre un rayonnement gamma dans une circonstance bien précise : lors d’une collision de matière en train de s’agglomérer à l’intérieur du trou de ver. « Ce rayonnement a un spectre spécifique très différent de celui des jets ou des disques d’accrétion des noyaux de galaxies actives. L’observation d’un tel rayonnement serait donc la preuve de l’existence des trous de ver », précise l’étude. Une autre découverte importante a été réalisée en novembre 2019 par une équipe internationale de recherche, rassemblant différentes universités américaines et italiennes, coordonnée par la NASA et utilisant les ressources puissantes du Centre d’observation aux rayons X Chandra. Ces scientifiques ont pu montrer qu’un trou noir serait en train de favoriser la naissance d’étoiles dans plusieurs galaxies différentes (Voir Chandra). De manière surprenante, ce trou noir, qui est supermassif, semble favoriser la création de nouvelles étoiles jusqu’à une distance de plus d’un million d’années-lumière. « C’est la première fois que nous voyons un seul trou noir stimuler la naissance d’étoi les dans plus d’une galaxie à la fois », souligne Roberto Gilli, de l’Institut national d’astrophysique (INAF) à Bologne, coauteur de l’étude. Ces travaux montent notamment que les jets de matière très puissants émis par ce trou noir ont pu favoriser la formation d’étoiles dans d’autres galaxies, en comprimant les nuages de gaz froid qu’elles contiennent. Sous l’effet de l’énorme attraction des trous noirs, la matière aspirée se comprime et s’échauffe jusqu’à atteindre des températures inimaginables, de l’ordre de plusieurs milliers de milliards de degrés. Parfois, ce phénomène extrême entraîne la formation et l’éjection de prodigieux jets de matière qui atteignent des vitesses de plusieurs centaines de kilomètres par seconde. Ces jets peuvent alors se propager dans l'espace sur des dizaines de milliers d'années-lumière, sur des distances allant jusqu’à 20 fois le rayon d'une galaxie moyenne ! Ces vents de plasma, qui atteignent le dixième de la vitesse de la lumière, transportent des quantités phénoménales d'énergie et pourraient, selon ces recherches, contrôler la croissance des galaxies. Il faut également évoquer une extraordinaire hypothèse, formulée en 2000 par l’équipe de Niayesh Afshordi, astrophysicien au Perimeter Institute for Theoretical Physics à Waterloo (Canada), et reprise plus récemment par trois chercheurs de cet Institut, sous le titre « Le trou noir à l’origine du temps » (Voir Inside The Perimeter). Selon ces scientifiques, il se pourrait que l’univers que nous connaissons ne soit que la projection, l’hologramme tridimensionnel d’un trou noir à 4 dimensions, résultant lui-même de l’effondrement d’une étoile quadridimensionnelle, dans un univers préexistant au nôtre. Dans notre Univers à trois dimensions, il faut une surface à 2 dimensions pour créer une limite à l’intérieur d’un trou noir. Mais dans un hypothétique univers quadridimensionnel, ces chercheurs ont montré que l’effondrement d’une étoile quadridimensionnelle provoquerait la formation d’une branche 3D se déployant lentement dans l’espace-temps. Ce modèle permet également d’expliquer la troublante isotropie (uniformité) de notre Univers. Si un univers à 4 dimensions a pu exister depuis un temps infiniment plus long que notre univers, ses différentes parties auraient eu tout le temps de tendre vers un équilibre de température qui se serait projeté dans notre Univers. Mais la découverte récente la plus troublante est sans doute celle faite, il y a un an, par le Professeur Xian Chen et son équipe, à l’Université de Pékin. Ces scientifiques ont publié une étude qui pose l’hypothèse que le trou noir supermassif qui se trouve au centre de la Voie lactée aurait contribué à la formation de molécules organiques essentielles à l’évolution de la vie telle que nous la connaissons. Le chercheur et son équipe ont simulé l’impact que les jets de rayons X – qui auraient été émis en grande quantité à une époque où ce trou noir était plus actif qu’actuellement – pourraient avoir eu sur la production d’une grande variété de molécules organiques indispensables à l’apparition de la vie, comme l’eau (H2O) ou le méthanol (CH3OH). Ces recherches ont montré que les énormes flux de particules à haute énergie émis lors de la « jeunesse » des trous noirs viennent entrer en collision avec les molécules interstellaires, et arrachent leurs électrons, ce qui augmente sensiblement les probabilités de reconfiguration moléculaire et de réactions chimiques favorisant la formation de molécules organiques complexes. «&nb sp;Il est fascinant de constater que si les trous noirs sont des objets extrêmement destructeurs, le trou noir supermassif au centre de la Voie lactée a peut-être été crucial pour l’évolution de la vie dans la galaxie », souligne Xian Chen. Toutes ces découvertes passionnantes sont encore très loin d’avoir dévoilé la nature infiniment mystérieuse des trous noirs mais elles nous montrent que ces objets d’une étrangeté absolue, loin d’être de simples curiosités cosmiques violentes et exotiques, semblent bel et bien jouer un rôle majeur dans la structure de l’Univers, son évolution et peut-être son origine. Mais le plus troublant est que ces trous noirs, qui symbolisent la destruction, le désordre et le néant, pourraient bien être également des catalyseurs cosmiques indispensables à l’apparition de la vie et de la conscience, comme si tout notre univers était régi par une puissance intrinsèquement duale et ambivalente, pouvant se manifester tantôt sous forme de chaos destructeur, tantôt sous forme de puissance créatrice et porteuse de complexité et de vie. Face à ce grand mystère, dans lequel s’entremêlent et se fondent les quatre composantes fondamentales de l’Univers, matière, énergie, espace et temps, il n’est pas inutile que, parfois, la raison cède le pas à l’émerveillement face à ces entités insaisissables que Stephen Hawking avait raison d’appeler les « grands architectes de l’ univers ». René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | Fondée en 2019, Aqemia est une jeune pousse issue de l’ENS et du CNRS, issue de la recherche fondamentale. Elle développe une technologie permettant, en un temps record, de trouver des molécules thérapeutiques pour une cible thérapeutique. Aqemia vient d’ailleurs de contractualiser avec Sanofi pour développer des médicaments contre le SARS-CoV-2. Aqemia combine deux technologies. La première technologie, qui a été développée à l’ENS, permet de prédire sur des bases physiques si une petite molécule – un candidat médicament – est efficace. Pour être efficace, il faut que cette molécule ait une bonne affinité avec sa cible thérapeutique. « La cible thérapeutique, qui est une grosse molécule, peut être vue comme un verrou, qui est responsable d’une maladie, et plus précisément d’un mécanisme de cette maladie. Il s’agit donc pour nous de trouver la bonne clé – parmi une quasi infinité de solutions – qui va entrer dans le verrou et l’empêcher de jouer son rôle dans la maladie ». Cette approche permet de prédire, grâce à des algorithmes très rapides et très pré cis, si les deux molécules s’emboîtent bien l’une dans l’autre. L'innovation d'Aqemia consiste dans l'utilisation originale d’une théorie quantique pour l’adapter à la mécanique statistique. La seconde technologie développée est une intelligence artificielle, qui invente de nouvelles molécules. Ainsi, ces deux technologies sont complémentaires, puisqu’une technologie va permettre d’inventer des molécules, et une seconde va valider, ou pas, l’affinité entre cette nouvelle molécule et la cible thérapeutique. Si la molécule imaginée ne correspond pas, l’intelligence artificielle va prendre en compte les points de blocage pour inventer une autre molécule. Et ainsi de suite, le système informatique fonctionne par boucles d’améliorations, et après une grande quantité de tests et de générations, il est possible d'obtenir une molécule qui correspond à la cible thérapeutique. Pour développer un médicament contre le SARS-CoV-2, les chercheurs d'Aqemia sont partis de molécules déjà identifiées pour avoir une bonne affinité pour la protéase du VIH (et également la protéase de SARS-CoV-1), qui a beaucoup de similitudes avec celle SARS-CoV-2. Ils ont testé ces molécules sur la protéase de SARS-CoV-2 et leur algorithme d’intelligence artificielle a progressivement modifié ces molécules, pour aboutir à une molécule ayant une affinité optimale avec la cible thérapeutique du SARS-CoV-2. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| Une équipe de chercheurs du Korea Institute of Science and Technology (KIST), un laboratoire basé à Séoul en Corée du Sud, affirment avoir mis au point une toute nouvelle technique pour dépister le cancer de la prostate avec un simple test d’urine. Grâce à l’intelligence artificielle, les chercheurs peuvent détecter la présence du cancer de la prostate en seulement 20 minutes avec une précision de 100 %. L’équipe coréenne est dirigée par le Docteur Kwan Hyi Lee du Biomaterials Research Center et le professeur In Gab Jeong de l’Asan Medical Center. Avec leurs scientifiques, ils ont mis au point une technique révolutionnaire dans le monde de la médecine. Il faut savoir que le cancer de la prostate est l’un des cancers les plus fréquents chez les hommes mais qu’il est particulièrement difficile à diagnostiquer. La précision du test actuel n’est que de 30 %, ce qui pousse les médecins à faire subir une biopsie invasive supplémentaire à leurs patients. Une technique douloureuse qui comporte des effets secondaires comme des saignements et une forte douleur. Comme l’explique le professeur Jeong : « pour les patients qui ont besoin de chirurgie ou de traitements, le cancer sera diagnostiqué avec une grande précision en utilisant l’urine pour minimiser les biopsies et les traitements inutiles, ce qui peut réduire considérablement les coûts médicaux et la fatigue du personnel médical ». Le Docteur Lee précise que : « nos recherches ont permis de mettre au point un bio-capteur intelligent qui permettra bientôt de détecter d’autres types de cancers grâce à de simples tests urinaires ». La technique développée par les chercheurs coréens est dite « non invasive ». Un test d’urine est extrêmement simple à réaliser et absolument pas douloureux. L’intelligence artificielle développée par ces chercheurs fonctionne grâce à un bio-capteur ultrasensible basé sur un signal électrique. L’équipe a utilisé simultanément différents types de facteurs cancéreux au lieu d’en utiliser un seul pour améliorer la précision du diagnostic de manière totalement innovante. Quatre facteurs cancéreux sont mesurés dans ce test. Pour détecter le cancer de la prostate dans l’urine, un système de capteurs à semi-conducteurs ultrasensibles capable de mesurer simultanément les traces de facteurs cancéreux a été développé. Le modèle d’intelligence artificielle a été formé en utilisant la corrélation entre les quatre facteurs de cancer, eux-mêmes obtenus à partir des capteurs. L’algorithme de cette intelligence artificielle a été formé en analysant les modèles complexes des signaux détectés. Les premiers tests sont très concluants. L’intelligence artificielle a permis de détecter 76 échantillons urinaires avec une précision de 100 %. Article rédigé par Georges Simmonds pour RT Flash Phys.org | | | |
| Une équipe de chercheurs chinois a réussi à créer un petit réseau quantique aéroporté à l’aide de drones. Ils sont notamment parvenus à distribuer des informations quantiques à deux stations au sol séparées de 1 km, à l’aide de deux drones en vol stationnaire. Un laser à bord de l’un des drones de 35 kilogrammes a créé une paire de photons intriqués en séparant un photon unique avec un cristal. Un photon a été envoyé directement à une station au sol et l’autre à un deuxième drone à un kilomètre de distance via un drone relais. Les dispositifs motorisés de chaque drone se déplaçaient pour s’assurer que les récepteurs et les émetteurs étaient toujours alignés et que les photons étaient focalisés et dirigés à travers le drone relais par un court morceau de câble en fibre optique. L’état de chaque photon a été mesuré à la station au sol et les résultats ont prouvé que les photons restaient intriqués. Ils espèrent que des connexions de plus de 300 kilomètres pourront être réalisées par des drones plus avancés à haute altitude, sans l’influence de distorsion de la pollution et des conditions météorologiques, et que des drones plus petits et plus rentables pourraient être produits pour les connexions locales, peut-être même pour les véhicules en mouvement. Tous ces appareils pourraient être reliés à des satellites pour une transmission mondiale. Article rédigé par Georges Simmonds pour RT Flash The Star | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Des chercheurs australiens de l'Institut royal de technologie de Melbourne ont développé un nouveau type de matériau ultra-efficace et nano-fin qui pourrait faire progresser l’électronique auto-alimentée, les technologies portables et même les stimulateurs cardiaques alimentés par les battements du cœur. Ce matériau est 100 000 fois plus fin qu’un cheveu humain et 800 % plus efficace que les autres matériaux piézoélectriques basés sur des matériaux non toxiques similaires. Selon le Docteur Nasir Mahmood, qui a dirigé cette étude, ce matériau constitue une étape majeure vers la réalisation du plein potentiel des dispositifs de collecte d’énergie entraînés par le mouvement. « Notre nouveau matériau est basé sur l’oxyde de zinc non toxique, qui est également léger et compatible avec le silicium, ce qui facilite son intégration dans l’électronique actuelle. Il est si efficace qu’il suffit d’une seule couche de 1,1 nanomètre de notre matériau pour produire toute l’énergie nécessaire à un nanodispositif entièrement autonome ». Les applications biomédicales potentielles du matériau comprennent les biocapteurs internes et les biotechnologies auto-alimentées, comme les dispositifs qui convertissent la pression sanguine en source d’énergie pour les stimulateurs cardiaques. Les piézoélectriques nanométriques pourraient également être utilisés dans le développement de capteurs d’oscillation intelligents pour détecter les défauts dans les infrastructures telles que les bâtiments et les ponts, en particulier dans les régions sujettes aux tremblements de terre. Parmi les exemples de technologies de récupération de l’énergie qui pourraient être mises au point grâce à l’intégration de ce nouveau matériau, citons les chaussures de course intelligentes permettant de recharger les téléphones portables. Article rédigé par Georges Simmonds pour RT Flash eenews | | ^ Haut | |
|
| | | Aujourd'hui, seulement 29 % des emballages en plastique sont recyclés. Pire encore, si on extrait les bouteilles et flacons, ce pourcentage tombe à 5 %… Prenons l’exemple du pot de yaourt : un français consomme à lui seul 168 pots chaque année. A l’échelle de la planète, cela représente 473kg de plastique par seconde ! Ces pots sont majoritairement constitués de polystyrène, une résine plastique petro-sourcée et mal recyclée pour plusieurs raisons : même s’il bien trié (ce qui n’est encore possible que pour 30 % des français, bénéficiant de l’extension du système de tri), ce plastique très spécifique, car très léger et cassant, pose problème au moment de son traitement. Son opercule, son étiquette l’empêchent également d’être identifié par les machines de tri optique… Et finalement, quand bien même le polystyrène parvient aux usines de retraitement, son recyclage donne un matériau de moins bonne qualité que le matériau original… Pour autant, il est difficile de se passer du plastique pour ce type d’emballage ! C’est face à ce constat que Carbiolice s’est donné comme ambition de repenser la fin de vie des plastiques qui restent utiles à notre quotidien. Elle nous propose de les composter ! Créée en 2016 à Riom, en Auvergne, Carbiolice est une entreprise française innovante qui a été créée en 2016, pour développer une nouvelle filière de bioplastiques 100 % compostables et 100% biodégradables. Carbiolice, en collaboration étroite avec le leader mondial de la production d’enzymes, Novozymes, a mis au point un additif enzymatique, appelé Evanesto, qui, ajouté à la fabrication des emballages plastiques d’origine végétale (PLA), permet de les rendre 100 % compostables, même en conditions domestiques, en moins de 200 jours. Il permet d’accélérer la désintégration naturelle de ce bioplastique afin qu’il soit plus rapidement assimilé par les micro-organismes du compost. En accélérant ses capacités de biodégradation, Evanesto® permet à ce plastique végétal de devenir 100 % compostable, même en conditions domestiques. « Plus concrètement, lorsqu’ils contiennent Evanesto, vos pots de yaourt, barquettes alimentaires, ou autres emballages plastiques vont pouvoir se transformer en compost, sans résidu, ni toxicité, en moins de 200 jours », précise Nadia Auclair, Présidente de la start-up. Après 4 années de R&D, Carbiolice vient de lancer la commercialisation de son additif : 15 entreprises sont déjà en train de le tester sur leurs lignes industrielles. Il s’agit principalement d’acteurs de l’agro-alimentaire à la recherche de solutions plus respectueuses de l’environnement pour leurs emballages (barquettes, films d’emballages…), mais le marché du plastique à usage unique (vaisselle jetable, bulles de calage…) ou encore de l’agriculture (films de paillage, pots horticoles…) s’intéresse également à cette solution. Article rédigé par Georges Simmonds pour RT Flash Enerzine | | | |
| La jeune société australienne Lavo propose la première batterie à hydrogène individuelle pour utilisation domestique. Moins volumineuse, avec moins de composants toxiques que les actuelles batteries lithium-ion, cette recharge reste cependant deux fois plus chère. Un logement indépendant du réseau électrique sans pollution ? Cela pourrait être possible dans le futur, grâce à la première batterie individuelle qui stocke l'électricité sous forme d'hydrogène. Actuellement, lorsqu'une habitation est dotée de panneaux solaires et que ses occupants veulent se déconnecter du réseau électrique classique, il faut être capable de stocker l'électricité générée les jours ensoleillés pour pouvoir l'utiliser le reste du temps. Un stockage possible uniquement jusqu'à présent en utilisant des batteries lithium-ion, volumineuses et bourrées d'éléments toxiques. Ce nouveau type de batterie, plus compact et plus écologique, va fabriquer elle-même son hydrogène. Il suffit de la brancher d'un côté aux panneaux solaires et de l'autre à une arrivée d'eau. La batterie va utiliser le trop-plein d'électricité pour faire de l'électrolyse : décomposer l'eau en hydrogène et en oxygène. Cet hydrogène sera ensuite stocké dans la batterie. Et les jours de mauvais temps, il sera utilisé pour générer de l'électricité. Ce type de batterie offre une capacité trois fois supérieure à taille équivalente aux batteries lithium-ion. Une petite armoire d'un mètre sur un mètre soixante, par exemple, correspond à l'équivalent de deux jours de consommation électrique d'un foyer. Article rédigé par Georges Simmonds pour RT Flash New Atlas | | | |
| Depuis une vingtaine d’années, les scientifiques créent des métamatériaux qui n’existent pas dans la nature et dont le comportement mécanique est défini principalement par l’architecture de leur structure et non par leur composition chimique. Ce récent domaine de recherche leur permet d’obtenir des matériaux avec des compositions et des propriétés spécifiques. Encore peu utilisés dans la vie quotidienne, ils devraient faire leur apparition dans un avenir proche. Tian Chen, post doctorant dans les laboratoires des structures flexibles de Pedro Reis, souhaitait aller plus loin que la réalisation de métamatériaux. Il a voulu changer leurs propriétés mécaniques en les programmant, une fois construits. « Je me suis demandé comment modifier la géométrie de la configuration interne d’un matériau après qu’il soit conçu. Le but est qu’il puisse posséder plusieurs fonctions mécaniques, telles que la rigidité et la résistance, sans avoir besoin de le remplacer à chaque opération. Par exemple, après s’être blessé, on porte une attelle rigide, qui limite passablement le mouvement. Mais au fil de la convalescence, on peut utiliser une attelle plus souple. Aujourd’hui, on doit en employer plusieurs. À l’avenir, peut-être qu’une seule suffira », explique Tian Chen. Le scientifique a donc imaginé un métamatériau, à la structure complexe, constitué de silicone et de poudre magnétique, dont la rigidité varie. Dans chacune de ses cellules se trouve une charge qui fonctionne comme un interrupteur. « En plaçant un champ magnétique autour du métamatériau, on peut activer ou désactiver chaque cellule. Ce phénomène modifie son état interne, et par conséquent ses propriétés mécaniques », explique Tian Chen. Pour le scientifique, il existe une analogie entre son matériel programmable et les appareils numériques tels que les disques durs. Sur ces derniers, chaque bit peut être écrit ou lu en temps réel. Chacune des cellules du métamatériau programmable, les m-bits, sont analogues aux bits d'un disque dur, elles peuvent être mis dans un état de « ON », ce qui est plus rigide, ou dans un état de « OFF », ce qui est plus souple. Des combinaisons différentes de « ON » et « OFF » peuvent ensuite être programmées pour obtenir une réponse mécanique souhaitée. Pour y arriver, il a fallu faire appel à diverses compétences issues de l’informatique et de l’ingénierie mécanique. « C’est ce qui rend ce projet si spécial », se réjouit Mark Pauly de l'EPFL (informatique géométrique). Tian Chen a aussi mené un travail de mesure afin d’évaluer le comportement de ce métamatériau dans ses différents états. Finalement, il a montré qu’il était possible de le programmer pour obtenir différentes rigidités, déformations et valeurs de force. En général, un métamatériau programmable est une machine, comme un robot, qui utilise des mécanismes électroniques complexes et énergivores. Le but de cette recherche était de trouver un juste milieu entre un matériau statique et une machine. Pour Pedro Reis, cette technologie offre différents horizons de recherche. « Nous pourrions réaliser cette technique en trois dimensions puisque nous avons procédé uniquement en deux dimensions, ainsi que réduire l’échelle pour atteindre un métamatériau plus petit », s’enthousiasme le professeur. Ce résultat fondamental présente le premier métamatériau mécanique réellement programmable et offre de nouvelles perspectives passionnantes pour la recherche scientifique et les innovations industrielles. Article rédigé par Georges Simmonds pour RT Flash EPFL | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Au cours des dernières décennies, la cryosphère – l’ensemble des surfaces de la planète recouvertes de glace – a fortement diminué à cause du réchauffement climatique. Des mesures satellites montrent que, depuis les années 1970, la superficie minimale de la banquise de l’Arctique – en été – se réduit chaque décennie de 10 %. De même, les glaciers de montagne, ainsi que les calottes glaciaires du Groenland et de l’ouest de l’Antarctique ont perdu une fraction conséquente de leur masse. Cette diminution de la cryosphère a en retour un impact sur le réchauffement climatique. En 2004, une étude s’était intéressée à l’impact de la fonte de la calotte glaciaire du Groenland ; il restait à quantifier le reste. C’est maintenant chose faite grâce à Nico Wunderling et ses collègues de l’Université de Potsdam, en Allemagne. Les spécialistes savent depuis longtemps par quels mécanismes la fonte des glaces agit sur le réchauffement climatique. Le premier est la modification de l’albédo : les surfaces dévoilées par la disparition des glaces – roches, végétation, océan… – sont plus sombres et absorbent ainsi davantage d’énergie des rayons du soleil, au lieu de les renvoyer vers l’espace. Ensuite, la fonte des glaces entraîne une augmentation de la quantité de vapeur d’eau dans l’atmosphère, or celle-ci contribue à l’effet de serre. Et comme la teneur maximale en vapeur d’eau de l’air augmente avec la température (de 7 % par degré), la hausse de la température due à la fonte des glaces s’en trouve amplifiée, dans un cercle vicieux. La fonte et le taux de vapeur d’eau dans l’air influent aussi sur le gradient vertical de température, et enfin sur les caractéristiques des nuages, en termes de quantité, d’altitude et de hauteur, qui contribuent positivement au réchauffement climatique. Pour quantifier ces contributions, l’équipe a réalisé des simulations en utilisant un modèle du système terrestre de complexité intermédiaire. Ce type de modèle permet de prendre en compte l’influence des différents éléments de la cryosphère, tout en restant efficient en termes de puissance de calcul. Toutefois, l’équipe a dû procéder à quelques simplifications, par exemple en négligeant l’impact de certains mécanismes liés aux flux d’eau douce, qui transportent de la chaleur des glaciers vers les océans, ce qui a des conséquences sur les interactions entre atmosphère et océan, et la concentration en vapeur d’eau de l’atmosphère. Nico Wunderling et ses collègues ont ainsi quantifié l’impact de la disparition de la cryosphère sur le réchauffement climatique : pour un scénario avec une concentration en carbone dans l’atmosphère de 400 parties par million (c’est-à-dire la même concentration qu’aujourd’hui), ils ont trouvé que la contribution de la fonte des glaces s’élève à 0,43°C, pour un réchauffement total de 1,5°C par rapport à l’ère préindustrielle. C’est donc près de 30 % du réchauffement total qui peut être attribué à la fonte des glaces. Les chercheurs ont ensuite isolé dans leur modèle les contributions de chacun des mécanismes cités plus haut. Le plus important est la modification de l’albédo, responsable à lui seul à 55 % de cette contribution au réchauffement climatique. Si cette estimation reste à perfectionner, que ce soit en utilisant des modèles plus complexes ou en prenant en compte davantage de mécanismes, elle est néanmoins préoccupante. Les effets de la fonte des glaces sur la température à l’échelle du globe se font davantage ressentir dans les régions polaires. Localement, l’élévation de la température peut ainsi largement dépasser les 0,43°C : elle pourrait atteindre les 5°C au Groenland et en Antarctique, avec des conséquences importantes sur le climat et les écosystèmes de ces régions. À ce rythme, il est même probable qu’au cours des prochaines décennies, l’Arctique connaisse des étés totalement dépourvus de glace… Article rédigé par Georges Simmonds pour RT Flash Pour La Science | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des chercheurs chinois de l'Université de Chongqing ont découvert une structure cérébrale responsable de la mémorisation préférentielle des informations nous concernant. De nombreuses expériences ont montré qu'un sujet est capable de repérer rapidement (voire presque instantanément) les éléments qui les concernent directement, par exemple son nom dans une liste, son visage sur une photographie, sa date de naissance au milieu d’une série de dates historiques… Ce biais centré sur soi-même peut également être élargi à notre mémoire, plus particulièrement à notre mémoire de travail. La mémoire de travail correspond à ce que l’on mobilise quand on réfléchit activement à quelque chose, lorsqu’on manipule consciemment des informations. Par exemple, si vous tentez de retenir un numéro de téléphone, le temps de le composer, c’est sous la forme de la mémoire de travail que les chiffres sont stockés. Une fois la manipulation d’informations achevée, certaines peuvent être “enregistrées” dans notre mémoire à long-terme : on parle d’encodage et de stockage. Ultérieurement, si vous avez à nouveau besoin d’une information (par exemple si vous recomposez le même numéro de téléphone), elle pourra être “récupérée” depuis la mémoire à long-terme et repasser en mémoire de travail pour la durée nécessaire. En plus de remarquer plus vite et avec plus de précision les informations qui nous concernent directement, l’être humain s’en souvient également significativement mieux : les stimuli perçus, et donc traités en mémoire de travail, que l’on associe spontanément et arbitrairement à soi-même (par exemple, encore une fois, son nom dans une liste), y sont priorisés automatiquement. Ce biais pourrait influencer notre façon de prendre des décisions, puisque la mémoire de travail est un pilier cognitif central. Il est donc important de comprendre les mécanismes cérébraux sous-jacents. C’est précisément ce qu’a étudié une équipe de chercheurs, dont le but était d’identifier la source cognitive de ce biais. Pour ce faire, ils ont dans un premier temps entraîné leurs participants à former des associations entre trois couleurs et trois types d'individus : une première couleur avec eux-mêmes, une deuxième avec un ami proche et une troisième avec un inconnu. Une fois cette étape achevée, les participants effectuaient une tâche mobilisant cet apprentissage et leur mémoire de travail : des points de couleur leur étaient présentés sur un écran, puis une indication sur le type de personne que cela désignait (en l’occurrence les caractères chinois pour “soi-même”, “ami” et “inconnu”, puisque l’étude était menée en Chine). La mission des participants consistait à indiquer si les deux indices présentés (la couleur et le caractère) correspondaient bien l’un à l’autre, ou non. Leur temps de réaction, c’est-à-dire le temps mis pour indiquer si oui ou non le caractère correspondait selon eux à une couleur présentée, était mesuré : les meilleurs temps enregistrés (les plus rapides) étaient bien ceux des situations dans lesquelles les participants devaient se rappeler du point de couleur qu’ils avaient arbitrairement associé à eux-mêmes. Pendant qu’ils effectuaient cette tâche, les chercheurs ont observé leur activité cérébrale en imagerie par résonance magnétique fonctionnelle (IRMf). Ils ont alors pu identifier un circuit neuronal impliqué dans ce biais cognitif. Les chercheurs ont observé que lorsque les participants avaient le point de couleur associé à eux-mêmes en mémoire de travail, une certaine région du cerveau était particulièrement active : le cortex préfrontal ventromédian (VMPFC, de l’anglais “ventromedial prefrontal cortex”). Il s’agit d’une zone cérébrale impliquée dans le traitement d’informations relatives à notre propre personne. Plus précisément, elle module l’activité de régions fronto-pariétales du cerveau, responsables de la production de représentations mentales à partir des informations sensorielles perçues comme relatives à nous-mêmes. Pour s’assurer que c’est bien cette zone cérébrale qui biaise notre faculté de mémorisation, les chercheurs ont perturbé son activité par stimulation transcrânienne à courant direct (tDCS). Cette technique d’électrostimulation du cerveau leur a permis de stimuler ou d’inhiber le VMPFC : son inhibition faisait disparaître le biais cognitif de mémorisation ! Article rédigé par Georges Simmonds pour RT Flash JNS | | | |
| Des chercheurs du CEA-Irig, en collaboration avec le CEA-Leti, ont mis en évidence l’existence d’un rythme biologique d'une durée de quatre heures qui se manifeste entre deux divisions cellulaires. La synthèse des protéines et leur dégradation jouent un rôle majeur dans le fonctionnement de nos cellules. Elles maintiennent l’abondance des protéines au sein des cellules en permettant le recyclage des briques élémentaires (acides aminés), ce qui permet d’assurer des fonctions biologiques normales. L’une des voies de régulations dominantes de la dégradation des protéines intervient via le système Ubiquitine-Protéasome dont la dérégulation peut conduire à des pathologies aussi diverses que des cancers, des désordres neuronaux… Cependant, la façon dont l’ubiquitination des protéines et leur cinétique de dégradation affectent la dynamique du réseau de protéines et le maintien de leur équilibre n’est toujours pas bien comprise. En réalisant, par imagerie sans lentille, des mesures de la masse sèche (représentée principalement par les protéines) sur différents types de cellules humaines, des chercheurs de l’Irig ont révélé l’existence d’un nouveau rythme biologique. Ce rythme de nature ultradienne (inférieur à 24 heures) se manifeste entre deux divisions cellulaires successives. Indépendant du rythme circadien, il possède une périodicité de quatre heures et est insensible à la température, ce qui est une caractéristique des horloges biologiques. Les scientifiques émettent plusieurs hypothèses, notamment que le recyclage massif toutes les quatre heures des acides aminés permettrait l’adaptation de la cellule à des périodes de carence nutritionnelle ou à des changements micro environnementaux aigus, et ceci à faible coût énergétique. En outre, cette horloge pourrait faire partie d’un système de défense contre les agents pathogènes faisant intervenir leur dégradation massive et la génération d’antigènes de façon périodique, toutes les quatre heures. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| Des chercheurs de l’Université de Birmingham ont suivi durant 3 ans 38 mères et leurs bébés en bonne santé. De petites quantités d'échantillons de sang et de selles ont été prélevées chez les bébés à la naissance à l'hôpital puis à nouveau lors de visites à domicile à l’âge de 3 semaines. 16 des 38 bébés (42 %) ont été allaités exclusivement au sein pendant la durée de l'étude, 9 bébés ont reçu un allaitement mixte et 13 ont été exclusivement nourris au lait maternisé. L’analyse révèle, pour la première fois, qu'un type spécifique de cellules immunitaires, les cellules T régulatrices (ou Tregs), qui se développent au cours des 3 premières semaines de vie sont presque 2 fois plus abondants chez les bébés humains allaités que chez les bébés nourris au lait maternisé. Ces cellules T régulatrices contrôlent la réponse immunitaire du bébé contre les cellules maternelles transférées avec le lait maternel et aident à réduire l'inflammation, ajoutent les auteurs. L’étude montre également que des bactéries spécifiques et bénéfiques, appelées Veillonella et Gemella, qui soutiennent la fonction de ces lymphocytes T régulateurs, sont plus abondantes dans l'intestin des bébés allaités. C'est donc l'un des mécanismes par lesquels l'allaitement maternel contribue au développement du système immunitaire chez l’enfant, confirme cette étude, qui identifie ainsi, pour la première fois l’impact du lait maternel sur les niveaux de ce type de cellule immunitaire. Les chercheurs vont regarder comment et si ce mécanisme biologique est préservé chez les nouveau-nés malades et prématurés qui ont développé des complications inflammatoires. L'équipe espère sensibiliser encore davantage aux bénéfices du lait maternel et pour les bébés qui ne peuvent pas en bénéficier, permettre d’améliorer avec ces nouvelles données, la composition du lait maternisé, afin d’optimiser ces mécanismes immunologiques bénéfiques. Article rédigé par Georges Simmonds pour RT Flash Allergy | | | |
| Un homme de 78 ans dont la cornée endommagée provoquait une cécité progressive a retrouvé la vue suite à l'implantation d'une cornée artificielle dans la paroi de son œil droit. L'opération a été menée par le Professeur Irit Bahar, directeur du département d'ophtalmologie au Rabin Medical Center en Israël. La cornée artificielle, baptisée CorNeat KPro, a été conçue et fabriquée par la start-up israélienne CorNeat Vision, spécialisée dans les implants biomimétiques. Le CorNeat KPro est entièrement synthétique et ne nécessite donc pas le tissu d'un donneur. L'implant est qualifié par l'entreprise de "fourmilière" pour les fibroblastes, les cellules qui synthétisent la matrice extracellulaire, ce qui permet d'obtenir une intégration tissulaire progressive. Cette opération marque une nouvelle étape dans le parcours de cette jeune pousse car il s'agit du premier test clinique sur l'Homme. Auparavant, seuls des animaux avaient reçu la cornée artificielle. "Il s'agit d'une étape extrêmement importante pour CorNeat Vision, clé de notre voyage pour permettre aux personnes du monde entier de profiter pleinement de leur potentiel de vision", s'est réjoui Gilad Litvin, cofondateur de CorNeat Vision. Traditionnellement, pour les patients atteints de cécité cornéenne, le dernier recours est la mise en place d'une kératoprothèse. Il s'agit d'une greffe de la cornée. Bien qu'ayant un taux élevé de succès, cette opération est compliquée car il y a une pénurie de dons (une seule cornée serait disponible pour 70 personnes). Les personnes attendent donc plusieurs années avant d'être opérées. Or, la cécité même partielle engendre de nombreuses complications au quotidien. C'est la raison pour laquelle CorNeat Vision a créé une cornée entièrement synthétique. Elle se place sous la conjonctive, la partie blanche de l'œil, un site riche en fibroblastes, ce qui permet une guérison rapide. Dans les implantations animales, le lien entre le dispositif et le tissu s'est avéré solide et durable, note la société israélienne. A noter que les risques de rejet sont dans tous les cas rares car la cornée n'est pas un tissu vascularisé. En outre, l'implant est conçu pour faciliter l'accès à la chambre antérieure – c'est-à-dire l'espace entre l'iris et la surface la plus interne de la cornée – après l'implantation. Tout au long de la vie du patient, les médecins, si besoin, pourront facilement y accéder, ce qui n'est pas toujours le cas avec la kératoprothèse. Les médecins du Rabin Medical Center ont été surpris par la simplicité d'implantation de la cornée artificielle. Contrairement aux procédures actuelles nécessitant une suture délicate du tissu du donneur sur la cornée native du patient, le CorNeat KPro s'insère dans la cornée trépanée du patient et est ensuite suturée à l'œil. De plus, l'opération minimise le temps d'exposition de l'intérieur de l'œil au monde extérieur à moins d'une minute, réduisant les risques associés (infection…). Article rédigé par Georges Simmonds pour RT Flash Pr NewsWire | | | |
| Une équipe de chercheurs canadiens de l’Université de Montréal a découvert qu’une hyperactivation dans certaines zones du cerveau chez des personnes non encore diagnostiquées avec Alzheimer est un marqueur de la maladie. Les chercheurs ont découvert chez des patients, qui s’inquiètent pour leur mémoire et qui présentent des facteurs de risque de maladie d’Alzheimer, une hyperactivation anormale de certaines zones de leur cerveau. Grâce à l’utilisation d’imagerie par résonance magnétique fonctionnelle (IRMf), ils ont pu identifier ces zones chez des personnes sans symptômes cliniques et avant l'apparition de troubles cognitifs détectés avec des tests standardisés. L'équipe a observé que, à mesure que la maladie progresse, l'activation neuronale suit une trajectoire inverse en forme de U. L'activation dans certaines zones du cerveau aux premiers stades de la maladie peut augmenter considérablement avant que la perte neuronale causée par la maladie ne conduise à une nette diminution de l'activation. « Cette forme peut caractériser le processus pathologique sous-jacent et aider les médecins à déterminer le stade de la maladie », précise Nick Corriveau-Lecavalier, premier auteur de l'étude. « Lorsqu'il est combiné avec d'autres indicateurs tels que les analyses de sang et les tests cognitifs, ce type d'investigation par neuroimagerie pourrait aider à une détection précoce possible ». Pour leur étude, les chercheurs ont utilisé les données du Consortium pour l'identification précoce de la maladie d'Alzheimer. Ils ont étudié l'activation cérébrale dans des groupes d'individus à haut risque de développer Alzheimer qui ont effectué une tâche de mémoire tout en étant scannés par IRMf. Un groupe était composé de 28 personnes préoccupées par leur mémoire mais qui ne présentaient pas de troubles cognitifs lors des tests cliniques traditionnels. L'autre groupe comprenait 26 personnes souffrant de troubles cognitifs légers. Les chercheurs ont découvert que les individus du premier groupe, c’est-à-dire ceux qui ont des problèmes de mémoire mais pas de troubles cognitifs, ont des niveaux d'activation anormalement élevés dans plusieurs régions clés du cerveau touchées par la maladie d'Alzheimer. Les personnes souffrant de troubles cognitifs légers, qui sont considérés comme étant à un stade plus avancé de la maladie, ont tendance à présenter une activation diminuée dans ces mêmes régions du cerveau. Article rédigé par Georges Simmonds pour RT Flash Alz | | | |
| Des chercheurs chinois ont analysé les données de non-fumeurs entre 1996 et 2006. Un prélèvement bactérien buccal était effectué tous les 2 ou 3 ans. Ces scientifiques ont pu montrer que chez les non-fumeurs, la composition bactérienne de la bouche pourrait être liée au risque de cancer du poumon. Sur la durée de l’étude, 90 femmes et 24 hommes se sont vu diagnostiquer un cancer du poumon. Pour comparer, un groupe contrôle de 114 non-fumeurs épargnés par cette maladie a été formé. Tous ont aussi procédé à une analyse de leur flore bactérienne buccale. Résultat, une différence dans la composition bactérienne est apparue entre les volontaires souffrant d’un cancer et ceux du groupe sain. Dans le détail, « une forte concentration de Bacteroidetes et Spirochètes diminue le risque de cancer du poumon alors qu’une forte concentration de Firmicutes augmente ce même risque ». Il ne s’agit que d’une étude observationnelle, mais la piste est pertinente. Comme le rappelle le Docteur David Christiani (Université d’Harvard), « les bactéries buccales sont connues pour provoquer des inflammations chroniques, favoriser la prolifération des cellules malsaines, modifier la structure de l’ADN, mécanismes à l’origine du cancer ». Le premier facteur de risque de cancer du poumon reste le tabagisme. Mais un cancer du poumon sur quatre n’est pas lié à la cigarette. La survenue de tumeurs pulmonaires est aussi associée à d’autres agents agressifs : l’amiante, les gaz d’échappement des moteurs diesel, le radon, les hydrocarbures polycycliques aromatiques, certains rayonnements ionisants, la silice, le cadmium. Mais aussi le cannabis inhalé et l’examen de la radiothérapie antérieure du thorax pour un lymphome de Hodgkin. Article rédigé par Georges Simmonds pour RT Flash HIE | | | |
| La société Phylex Biosciences, qui développe un vaccin universel contre le coronavirus, explique le principe de son sérum qui doit protéger contre tous les futurs variants. Un remède dont elle espère voir les premières doses injectées aux patients "vers la fin de l'année 2021". Alors que les différentes mutations du coronavirus inquiètent un grand nombre de pays à travers le monde, cette société pense avoir trouvé la solution. Tandis que les différentes autorités sanitaires tentent de savoir si les vaccins disponibles sont efficaces contre les souches britannique, brésilienne ou encore sud-africaine, Pascal Brandys et sa société développent un vaccin universel. Invité d'Europe Matin, le PDG de la société Phylex Biosciences, explique le principe de ce sérum qui devrait être disponible "vers la fin de l'année". Les vaccins qui sont administrés aujourd'hui (Pfizer, AstraZeneca...) sont des vaccins de première génération, qui ont tous un temps de retard par rapport au virus."Le coronavirus mutant fréquemment, comme celui responsable de la grippe, il faut pouvoir protéger la population de ces variants avant même qu'ils n'apparaissent, un sérum qui "anticipe les mutations futures". Et c'est précisément ce sur quoi travaille Pascal Brandys. Grâce à son candidat-vaccin qui contient un antigène "plus puissant par rapport aux vaccins actuels mais surtout polyvalent". Concrètement, le vaccin qu'est en train de mettre au point Phylex Biosciences pourrait « être en mesure d'être efficace contre un très grand nombre de variants », affirme Pascal Brandys. Si ce sérum tient ses promesses, il permettrait d'éviter de faire des rappels de vaccination à l'échelle planétaire dès qu'un nouveau variant verra le jour, et finalement ne plus être en retard par rapport aux mutations. Article rédigé par Georges Simmonds pour RT Flash 24matins | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|