| | | | | | | Edition du 30 Septembre 2022 |
| |
|
| Edito Pourquoi hésiter ? Une transition énergétique mondiale rapide est non seulement possible mais rentable !
AVANT PROPOS : LA QUATRIÈME CAMPAGNE ANNUELLE DE DONS POUR SAUVER RT FLASH EST OUVERTE J'ai créé en 1998 RT Flash, Lettre électronique hebdomadaire dédiée à la Recherche et aux Nouvelles Technologies. Fait unique en France, depuis si longtemps (24 ans), cette Lettre a toujours été gratuite et n'a jamais accepté de publicité. C'est, à notre connaissance, la seule source française d'informations entièrement gratuite que les enseignants peuvent recommander à leurs élèves ou étudiants sans craindre d'être accusés de promouvoir un média commercial. Cette position originale a incité les grands instituts français de Recherche (CNRS, INSERM, CEA, INRIA, CNES, IFREMER) à apporter, chaque année, pendant 20 ans, une petite subvention de 2.500 à 5.000 euros à l'Association ADIST qui depuis l'origine gère RT Flash. Mais en 2018, sur demande de BERCY, ces organismes publics ont cess&eacu te; d'apporter leur subvention annuelle, le Trésor ayant jugé qu'il n'était pas dans la mission de ces organismes publics de Recherche de subventionner RT Flash. RT Flash ayant besoin de trouver 15.000 à 20.000 € chaque année pour son fonctionnement général (je vous rappelle que tous les rédacteurs et votre serviteur sont entièrement bénévoles depuis l'origine de la Lettre), j'ai pris la décision de me tourner vers vous, chers lecteurs de RT Flash. Pour ces campagnes de dons, j'ai confié cette tâche à HELLO ASSO qui a fait un sans faute pendant les 3 premières campagnes. Il est important de choisir un bon partenaire car c'est cet organisme qui fera parvenir à tous les donateurs un certificat qui leur permettra de demander au Trésor Public une réduction d’impôts significative de 66 % du montant de leur don, lors de leur prochaine déclaration de revenus. En effet, en raison de son comportement exemplaire, totale gratuité des services rendus, l'ADIST qui gère RT Flash a reçu la qualification d'association d’intérêt général. Ainsi, les dons qui sont fait à notre association ADIST ouvrent droit à une réduction fiscale de 66 % en respect des articles 200 et 238 du Code Général des Impôts. Chaque année, depuis 4 ans, je fais appel à vos dons, et sans cet argent apporté par nos lecteurs, notre Association n'ayant aucun actif et aucune réserve, disparaîtrait et donc RT Flash ne pourrait plus être mise en ligne. C'est pourquoi nous osons donner à ces campagnes un titre très abrupt : "CAMPAGNE ANNUELLE DE DONS POUR SAUVER RT FLASH" L'avenir de RT Flash dépend bien de vous, chers lecteurs. René Trégouët Sénateur Honoraire Créateur du Groupe de Prospective du Sénat Rédacteur en Chef de RT Flash Si vous voulez aider RT Flash, Lettre d'informations scientifiques et technologiques, gratuite et sans publicité depuis 1998, appuyez sur le lien suivant : Faites un DON pour sauver RT Flash, vous bénéficierez d’une réduction fiscale de 66 % Ce texte en bleu permettra d'activer le lien suivant : https://www.helloasso.com/associations/adist/formulaires/3/widget EDITORIAL : Pourquoi hésiter ? Une transition énergétique mondiale rapide est non seulement possible mais rentable ! Les chiffres sont implacables : en dépit d’une réduction éphémère des émissions mondiales de dioxyde de carbone (CO2), qui ont chuté de 5,4 % en 2020, pandémie de Covid-19 oblige, les émissions de CO2 liées à la combustion d’énergies fossiles ainsi que de l’industrie et des cimenteries sont repartis à la hausse en 2021, pour atteindre 36,4 milliards de tonnes en 2021, contre 34,8 milliards en 2020. Et si l’on tient compte des émissions liées à la déforestation et à l’agriculture, on arrive à 39 milliards de tonnes de CO2 émis en 2020, soit une augmentation de 40 % depuis 1990 (Voir Copernicus). Or, il faut rappeler que, pour espérer limiter le réchauf fement à 2°, alors que la température moyenne mondiale a déjà augmenté de 1,1° depuis un siècle, il faudrait dès à présent inverser l’évolution actuelle, et diminuer de 5 % par an nos émissions de CO2, un objectif qui semble de plus en plus difficile à atteindre… Le rapport publié le 19 septembre dernier par le Carbon Tracker et Global Energy Monitor (Voir Carbon Tracker) souligne pour sa part que les réserves d’énergie fossile restant dans le sol représentent 3 500 milliards de tonnes de gaz à effet de serre (GES), soit plus que toutes les émissions produites depuis la révolution industrielle, et surtout, plus de sept fois le budget carbone de 580 gigatonnes (soit 15 années d’émissions au rythme actuel) prévu pour limiter l’augmentation de la température à 1,5°C par rapport à l’ère préindustrielle. Il est par ailleurs bien établi sur le plan scientifique qu’il existe un fort lien de causalité entre l’accélération du dérèglement climatique et les événements catastrophiques qui ont affecté l’ensemble de la planète depuis le début de l’année, inondations, sécheresses sans précédent et canicules à répétition, notamment en Europe, dont nous avons tous pu mesurer l’ampleur et la durée. Pourtant, même si la puissance installée des énergies renouvelables progresse en moyenne de 10 % par an, et que les deux tiers, des nouvelles capacités ont un coût inférieur à celui des énergies fossiles (charbon compris), les énergies vertes ne représentent encore que 12 % de la production mondiale d’énergie (14,5 gigatonnes d’équivalent-pétrole en 2020) et à peine un tiers de la production mondiale d’électricité (27 500 TWh en 2020). Selon la plupart des experts, cette consommation mondiale d’énergie risque encore d’augmenter de 50 % d’ici 2050, notamment à cause de la croissance démographique mondiale annoncée (deux milliards d’habitants en plus sur la planète), mais également sous l’effet du développement économique des géants asiatiques que sont la Chine et l’Inde. Dans un tel contexte, la nécessaire transition énergétique mondiale, qui doit nous mener à une sortie quasiment complète des énergies fossiles à l’horizon 2050, peut apparaître comme un objectif inatteignable, tant elle implique un effort gigantesque et coûteux, puisqu’il va falloir multiplier par plus de dix, en moins de trente ans, la puissance éolienne et solaire installée, ainsi que la production d’hydrogène vert, dans un scenario qui suppose la part de l’hydraulique et du nucléaire constante, pour parvenir à satisfaire la demande mondiale d’énergie, tout en réduisant de 80 % nos émissions de CO2 en 2050, pour retomber, à cette échéance, en dessous des 10 gigatonnes émises par an, soit une tonne par terrien, contre cinq tonnes aujourd’hui. En juin dernier, l’Université de Stanford a publié une étude très instructive, intitulée, « Des solutions abordables pour lutter au niveau mondial contre le réchauffement climatique ». Ce vaste travail dirigé par un chercheur de réputation international, le Professeur Mark Jacobson, montre comment 145 pays pourraient couvrir la totalité de leurs besoins habituels grâce aux énergies éolienne, hydraulique et solaire ainsi qu’au stockage de l’énergie. D’après cette étude, dans tous les pays analysés, le faible coût de l’énergie produite ainsi que d’autres avantages permettent aux investissements nécessaires à la transition d’être remboursés en six ans. Elle estime en outre que, au niveau mondial, une telle transition créerait 28 millions d’emplois de plus qu’elle n’en détruirait. (Voir étude complète de 118 pages et résumé). À mesure que les énergies renouvelables gagnent du terrain dans le mix énergétique mondial, et que des objectifs sont fixés pour poursuivre leur développement, des craintes s’élèvent concernant les coûts engendrés par ce changement radical dans nos systèmes énergétiques. Par ailleurs, l’intermittence de l’éolien et du solaire fait redouter l’insuffisance de l’approvisionnement et d’éventuelles coupures d’électricité. Les dernières modélisations de systèmes énergétiques réalisées par le chercheur Mark Jacobson, de la Stanford University, montrent pourtant que dans 145 pays, la transition vers une énergie reposant entièrement sur l’éolien, l’hydraulique, le solaire et le stockage serait rentable en six ans, et coûterait même moins cher à terme que de conserver les systèmes énergétiques actuels. « Au niveau mondial, l’association éolien-hydraulique-solaire permet de réduire de 56,4 % l’énergie fournie, de 62,7 % les coûts énergétiques privés annuels (de 17,2 à 6,4 billions d’euros par an), et de 92 % les coûts sociaux, sanitaires et environnementaux annuels de l’énergie (de 80,5 à 6,4 billions d’euros par an) pour un coût e n valeur actuelle de l’ordre de 66 000 milliard de dollars. L’association éolien-hydraulique-solaire nécessite en effet bien moins d’énergie, moins coûteuse et crée davantage d’emplois que le maintien du système actuel », précise l’étude. Le modèle de Stanford prend en compte des pays supplémentaires, des données plus récentes sur la consommation énergétique dans toutes les régions, ainsi que des calculs permettant d’intégrer les incertitudes liées au prix futur du stockage de l’énergie par batterie, et le développement de nouvelles technologies prometteuses, telles que le vehicle-to-grid qui consiste à utiliser les batteries du parc de véhicules électriques de plus en plus nombreux, pour stocker l’électricité excédentaire issue des énergies renouvelables et la restituer lors des pics de demande. L’étude souligne également que cette transition créerait 28 millions d’emplois de plus qu’elle n’en détruirait. Néanmoins, si l’étude démontre clairement qu’une transition vers une énergie 100 % renouvelable est possible à la fois sur le plan technique et économique, Mark Jacobson prévient que de nombreuses incertitudes subsistent. « L’une des plus importantes concerne l’existence d’une volonté politique suffisante pour mettre en place une transition à un rythme assez rapide », souligne le chercheur, qui ajoute, « Si la volonté politique est au rendez-vous, passer à une énergie totalement propre et renouvelable à l’échelle mondiale devrait réduire considérablement les besoins énergétiques, les coûts, la mortalité due à la pollution de l’air, le réchauffement climatique en cours, ainsi que l’insécurité énergétique, t out en créant des millions d’emplois pérennes. » Dans son étude, Jacobson se fait un ardent défenseur de la voiture électrique, dont l’efficacité énergétique est, selon lui, remarquable et sous-estimée. Il remarque qu’un gallon d'essence (3,8 litres) procure une énergie équivalente à celle d'une batterie de 33,7 kWh. De nombreuses voitures électriques ont aujourd'hui une autonomie de 300 miles (500 km) ou plus, ce qui signifie qu'elles peuvent parcourir cette distance avec l'équivalent de 3 gallons d'essence (11,4 litres). Une LEAF de première génération, avec sa batterie de 24 kWh, était si efficace qu'elle pouvait déjà parcourir environ 80 miles (144 km) avec l'équivalent d'environ 0,8 gallon d'essence (3 litres). Ce chercheur souligne qu’un moteur à combustion interne typique a un rendement de 25 %, maximum, ce qui signifie que les trois quarts du carburant embarqué et payé est en fait gaspillé sous forme de friction ou de chaleur. En revanche, une voiture électrique est efficace à plus de 80 %, ce qui explique son efficacité énergétique sans pareil. « Alors que notre planète affronte un réchauffement climatique sans précédent depuis trois millions d’années, combien de temps encore pouvons-nous nous permettre d'être aussi prodigues avec notre consommation d'énergie ? Payeriez-vous 100 $ pour un costume qui ne vaut que 25 $ ? Bien sûr que non, et pourtant chaque fois que les gens font le plein d'essence, ils gaspillent les trois quarts de l'énergie qu'ils ont payée », ajoute Jacobson. L’étude souligne que le problème est similaire lorsque l'on considère la production thermique d'électricité. « La quantité d'énergie gaspillée dans le processus est tout simplement stupéfiante, et pourtant nous continuons à produire de l'électricité de cette façon parce que c'est ce à quoi nous sommes habitués et que nous ne voyons pas d'autre moyen », souligne l’étude. Autre facteur fondamental, souvent ignoré, le vent et le soleil sont gratuits. Une fois que les infrastructures de captage sont construites, le coût de l’énergie (hors entretien des installations) est nul. Bien sûr, souligne l’étude, ces équipements devront être entretenus et remplacés au fil du temps, tout comme les réseaux électriques et les centrales thermiques. Mais le coût de l’énergie restera gratuit pour l’éternité, tandis que le prix des énergies fossiles évoluera de manière inéluctable à la hausse, non seulement à cause de l’épuisement inévitable des ressources facilement exploitables, mais également, on le voit bien actuellement avec l’impact mondial de la guerre en Ukraine, à cause des crises et instabilités géopolitiques. Dans la conclusion de leur étude, Jacobson et ses collègues de recherche déclarent : « La transition vers 100 % d'énergies renouvelables dans 145 pays pourra à la fois réduire considérablement les besoins énergétiques, au moins de 56 % et les coûts sociaux qui en découlent, au moins de 92%, tout en créant environ 28 millions d'emplois à temps plein à long terme de plus que perdus. Une économie à 100 % d'énergies renouvelables n'utiliserait que 0,5 % de la superficie des 145 pays ». Cette étude de Stanford est à mettre en parallèle avec un autre travail passionnant réalisé sous la direction du professeur Doyne Farmer, de l’Université d’Oxford, et publiée le 13 septembre dernier (Voir Cell), sous le titre "Prévisions technologiques empiriquement fondées et transition énergétique". Cette étude souligne que, même sans tenir compte des avantages immenses pour le climat ou la santé, une transition volontariste vers un système énergétique totalement décarboné d’ici à 2050 serait bénéfique sur le plan économique. Parmi les énergies renouvelables, cette publication en retient quatre : le solaire, l’éolien, les batteries et l’hydrogène vert. L’avantage des projections menées par l’Université d’Oxford est qu’il s’agit d’un modèle probabiliste qui repose sur des données empiriques, c’est-à-dire issues du terrain. L’étude contient ainsi 45 ans de coûts de l’énergie solaire, 37 ans de coûts de l’énergie éolienne, 25 ans de données sur le stockage des batteries. L’étude présente trois scénarios : le premier imagine un monde qui reste dominé par les énergies fossiles; le deuxième une transition lente et le dernier, une transition rapide. Ce troisième scénario vise une économie mondiale décarbonée en 2050, avec une production mondiale d'énergie essentiellement assurée par des sources renouvelables. Selon l'étude, ce scenario entraînerait in fine une économie de 12 000 milliards de dollars, par rapport au système actuel reposant sur les énergies fossiles, à la fois néfaste pour le climat, l'environnement et la santé humaine. Un scénario additionnel a aussi été imaginé par l’étude, dans lequel le nucléaire joue un rôle prépondérant dans le remplacement des énergies fossiles. Mais ce scénario est jugé plus coûteux que ceux basés essentiellement sur des sources d’énergie renouvelables. L’énergie nucléaire concernait fin 2021 33 pays dans le monde, avec 436 réacteurs en exploitation. Le nucléaire a donc sa place dans le mix énergétique pendant la transition, mais l’étude considère néanmoins que le passage aux énergies renouvelables reste l’objectif à privilégier à long terme. Rupert Way, l’un des auteurs de ce travail, regrette que les précédents modèles aient surestimé les coûts de la transition énergétique, au point de dissuader certaines entreprises d’investir. « Il y a quelques années seulement, on estimait que l’objectif zéro émission d’ici à 2050 était si coûteux qu’il était à peine crédible, mais aujourd’hui, même les modèles les plus pessimistes admettent que cet objectif est tout à fait réalisable », précise-t-il. Le Dr Way rappelle que les coûts des énergies vertes ont largement diminué, depuis 10 ans, de façon bien plus rapide que ce que prédisaient ces modèles. « Notre étude indique que le déploiement de plus en plus poussé des technologies vertes continuera de faire baisser leurs coûts, et plus nous irons vite, plus nous économiserons d’argent. Accélérer la transition vers les énergies renouvelables est maintenant le meilleur choix non seulement pour la planète, mais aussi pour nos économies qui pourront ainsi bénéficier d’un accès sécurisé et abordable à l’énergie dont le monde aura besoin pour satisfaire ses besoins ». Cette étude rappelle que le coût de l’énergie solaire a diminué deux fois plus rapidement que les projections les plus ambitieuses, ce qui démontre que, depuis 20 ans, les anciens modèles ont gravement surestimé les coûts prévisibles des principales technologies de production d’énergie propre. « Il y a une conception erronée voulant que pour passer à de l’énergie propre, il faudra consentir à des sacrifices douloureux et coûteux pour tous, mais c’est simplement faux », mentionne le professeur Doyne Farmer, qui a dirigé l’équipe de recherche. Le professeur Farmer conclut son travail en expliquant que « la planète fait simultanément face à des crises d’inflation, de sécurité nationale et du climat, toutes provoquées par notre dépendance envers des combustibles fossiles coûteux, non sécuritaires et aux prix volatils. Cette étude démontre que des politiques ambitieuses visant à accélérer de façon importante la transition vers un futur énergétique propre dès que possible sont non seulement nécessaires pour des raisons climatiques, mais peuvent permettre d’économiser des milliers de milliards de dollars en coûts énergétiques futurs, ce qui nous permettra d’obtenir un futur plus propre, plus abordable et plus sécuritaire ». Il faut définitivement tordre le cou à l’idée fausse et répand ue selon laquelle le passage à une énergie propre et verte aura un coût financier insupportable pour nos sociétés, car cette idée est tout simplement fausse ». Le dernier rapport de la Commission Mondiale pour l’Economie et le Climat estime, pour sa part, qu’une action ambitieuse en faveur du climat pourrait générer 26 000 milliards de dollars de gains économiques d’ici 2030. Selon cette étude, la transition vers une économie bas carbone et résiliente pourrait entraîner une augmentation des recettes publiques estimées à 2800 milliards de dollars par an, grâce à une réforme des subventions et de la tarification du carbone (Voir The New Climate Economy). La Commission demande ainsi à tous les acteurs, privés comme publics, d' « accélérer l'investissement dans les infrastructures durables » avec pour objectif «& nbsp;d'investir au moins 100 milliards de dollars par an ». Au niveau mondial, les coûts du solaire ont été divisés par quatre en dix ans ; ceux de l’éolien par deux. En France, le tarif pour les centrales solaires est passé de 300 à 55 euros le MWh en dix ans. Pour l’éolien, les tarifs d’achat de l’éolien terrestre sont passés de 86 euros à 2010 à 59 euros aujourd'hui. Le coût de production de l’électricité issue de l’éolien marin est descendu pour sa part à 60 € le MWh, raccordement compris. A ce rythme, l’électricité issue des énergies renouvelables sera dans moins de cinq ans moins chère que celle de n’importe quelle énergie fossile, mais également moins chère que l’électricité issue du nucléaire. Cette baisse continue et très importante du coût des énergies renouvelab les a été également confirmée par une étude de BloombergNEF (BNEF), qui montre que le photovoltaïque et l’éolien terrestre sont désormais les sources les moins chères de production de nouvelles constructions pour au moins les deux tiers de la population mondiale. Selon un nouveau rapport publié en juin dernier par le Global Turning Point Report de Deloitte, un réchauffement climatique non maîtrisé de trois degrés coûterait à l'économie mondiale 178 000 milliards de dollars au cours des 50 prochaines années, soit une réduction de 7,6 % du produit intérieur brut mondial d'ici 2070. Cette étude prévient qu’une telle hausse des températures entraînerait des pertes considérables d'emplois et de productivité, des pénuries de nourriture et d'eau, ainsi qu’une régression de la santé et une diminution sans précédent (hors conflit mondiaux) du niveau de vie général de la population mondiale (Voir Deloitte). Cette étude très sérieuse a le mérite de montrer que le coût global, économique, social et humain de l’inaction climatique et énergétique serait infiniment plus lourd pour notre planète que l’effort financier public et privé, très bénéfique à terme pour toute l’humanité, à consentir pour réaliser une mutation énergétique mondiale vers des énergies propres et décarbonées. Je voudrais enfin souligner un dernier point qui me semble essentiel : cette transition énergétique d’une ampleur et d’une rapidité sans précèdent dans l’histoire humaine, peut et doit devenir un moteur extraordinaire d’innovation scientifique et technique, dont les immenses retombées déborderont largement, j’en suis convaincu, le seul domaine de l’énergie et auront des effets positifs sur l’ensemble de nos sociétés, dans tous les domaines, travail, transports, médecine, habitat, alimentation… A nous de savoir transformer cet immense défi du changement climatique et de la transition énergétique en formidable opportunité de progrès et d’amélioration des conditions de vie pour l’ensemble des habitants de notre Terre. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | Certains systèmes intracrâniens parviennent à décoder efficacement des caractéristiques interprétables (par exemple, des lettres, des mots, des spectrogrammes). Ces dispositifs sont toutefois plutôt invasifs, et ne sont généralement pas adaptés à la parole naturelle. Jean-Rémi King et ses collègues de Meta ont donc développé une IA capable de traduire des enregistrements de magnéto- et électro-encéphalographie (qui sont des techniques non-invasives) en mots. La technologie n’en est qu’à ses balbutiements, mais les premiers résultats sont encourageants : pour chaque enregistrement, l’IA a prédit une liste de 10 mots, et 73 % du temps cette liste comprenait le mot correct ; dans 44 % des cas, le premier mot prédit était le bon. La prochaine étape pourrait être d’essayer d’interpréter les pensées d’une personne. Pour entraîner leur IA, King et ses collaborateurs ont utilisé des ensembles de données publiques d’ondes cérébrales provenant de 169 volontaires, collectées alors qu’ils écoutaient des enregistrements de personnes s’exprimant de façon naturelle. Ces données d’ondes, enregistrées par magnéto- ou électro-encéphalographie (M/EEG), ont été segmentées en blocs de trois secondes ; ces derniers ont été soumis à l’IA, accompagnés des fichiers sonores correspondants — l’objectif étant que le logiciel les compare pour identifier des modèles. Parmi les données disponibles, 10 % ont été réservées à la phase de test. En d’autres termes, ces ondes cérébrales n’avaient jamais été examinées par l’IA auparavant. Et le programme a brillamment passé le test : il a été capable de déduire des ondes cérébrales quels mots individuels, à partir d’une liste de 793 mots, chaque personne écoutait à ce moment-là. « Les résultats montrent que notre modèle peut identifier, à partir de 3s de signaux MEG, le segment de parole correspondant avec une précision allant jusqu’à 72,5 % dans le top-10 sur 1594 segments distincts (et 44 % dans le top-1) », précisent les chercheurs. Pour les enregistrements de type EEG, l’IA a affiché une moindre précision : elle a été capable de prédire une liste de dix mots contenant le mot correct dans 19,1 % des cas, sur 2604 segments distincts. Ces résultats tracent une voie prometteuse pour décoder le traitement du langage naturel en temps réel à partir d’enregistrements non invasifs de l’activité cérébrale. Cette technologie pourrait conduire au développement d’un système capable d’interpréter les pensées d’une personne et donc potentiellement permettre aux personnes incapables de parler de communiquer à nouveau. Meta a récemment annoncé un partenariat de recherche à long terme — avec le centre de neuroimagerie cérébrale NeuroSpin, du CEA et l’INRIA — pour étudier le cerveau humain et, en particulier, la façon dont il traite le langage. L’objectif est de collecter les données nécessaires au développement d’une IA capable de traiter la parole et le texte aussi efficacement que les humains. Article rédigé par Georges Simmonds pour RT Flash SiliconANGLE | | | |
| Une équipe internationale de chercheurs a conçu et fabriqué une puce qui exécute des calculs directement en mémoire et peut faire fonctionner une grande variété d’applications d’IA – le tout à une fraction de l’énergie consommée par les plates-formes informatiques pour l’IA à usage général. La puce neuromorphique NeuRRAM rapproche l’IA d’un fonctionnement sur une large gamme d’appareils périphériques, déconnectés du nuage, où ils peuvent exécuter des tâches cognitives sophistiquées partout et à tout moment sans dépendre d’une connexion réseau à un serveur centralisé. Les applications abondent aux quatre coins du monde et dans toutes les facettes de notre vie, qu’il s’agisse de montres intelligentes, de casques VR, d’oreillettes intelligentes, de capteurs intelligents dans les usines ou de rovers pour l’exploration spatiale. La puce NeuRRAM est non seulement deux fois plus économe en énergie que les puces “compute-in-memory” de pointe, une catégorie innovante de puces hybrides qui exécutent des calculs en mémoire, mais elle fournit également des résultats tout aussi précis que les puces numériques classiques. Les plates-formes d’IA conventionnelles sont beaucoup plus volumineuses et sont généralement contraintes d’utiliser de grands serveurs de données fonctionnant dans le nuage. En outre, la puce NeuRRAM est très polyvalente et prend en charge de nombreux modèles et architectures de réseaux neuronaux différents. Par conséquent, la puce peut être utilisée pour de nombreuses applications différentes, notamment la reconnaissance et la reconstruction d’images ainsi que la reconnaissance vocale. « Or, notre puce NeuRRAM est efficace sans sacrifier la polyvalence », a déclaré Weier Wan, premier auteur correspondant de l’article et récent titulaire d’un doctorat de l’Université de Stanford, qui a travaillé sur la puce à l’Université de San Diego, où il était conseillé par Gert Cauwenberghs du département de bio-ingénierie. Actuellement, l’IA est à la fois gourmande en énergie et coûteuse en calculs. La plupart des applications d’IA sur les appareils périphériques impliquent le transfert de données des appareils vers le nuage, où l’IA les traite et les analyse. Les résultats sont ensuite renvoyés vers l’appareil. Cela s’explique par le fait que la plupart des périphériques sont alimentés par des batteries et ne disposent donc que d’une quantité limitée d’énergie pouvant être consacrée au calcul. En réduisant la consommation d’énergie nécessaire à l’inférence de l’IA à la périphérie, cette puce NeuRRAM pourrait conduire à des dispositifs périphériques plus robustes, plus intelligents et plus accessibles, ainsi qu’à une fabrication plus intelligente. Elle pourrait également conduire à une meilleure confidentialité des données, car le transfert de données des appareils vers le cloud s’accompagne de risques de sécurité accrus. Pour résoudre ce problème de transfert de données, les chercheurs ont utilisé ce que l’on appelle la mémoire vive résistive, un type de mémoire non volatile qui permet de calculer directement dans la mémoire plutôt que dans des unités de calcul séparées. La RRAM et d’autres technologies de mém oire émergentes utilisées comme réseaux de synapses pour l’informatique neuromorphique ont été mises au point dans le laboratoire de Philip Wong, conseiller de Wan à Stanford et principal contributeur à ces travaux. Les chercheurs ont mesuré l’efficacité énergétique de la puce par une mesure connue sous le nom de produit énergie-retard, ou EDP. L’EDP combine à la fois la quantité d’énergie consommée pour chaque opération et le temps qu’il faut pour réaliser l’opération. Selon cette mesure, la puce NeuRRAM atteint un EDP de 1,6 à 2,3 fois inférieur (plus il est faible, mieux c’est) et une densité de calcul de 7 à 13 fois supérieure à celle des puces les plus récentes. Les chercheurs ont exécuté diverses tâches d’intelligence artificielle sur la puce. Elle a atteint une précision de 99 % dans une tâche de reconnaissance de chiffres manuscrits, de 85,7 % dans une tâche de classification d’images et de 84,7 % dans une tâche de reconnaissance de commandes vocales Google. En o utre, la puce a également permis de réduire de 70 % l’erreur de reconstruction d’image dans une tâche de récupération d’image. Ces résultats sont comparables à ceux des puces numériques existantes qui effectuent des calculs avec la même précision binaire, mais avec des économies d’énergie considérables. La clé de l’efficacité énergétique de la NeuRRAM réside dans une méthode innovante de détection de la sortie en mémoire. Les approches conventionnelles utilisent la tension comme entrée et mesurent le courant comme résultat. Mais cela entraîne la nécessité de circuits plus complexes et plus gourmands en énergie. Dans la NeuRRAM, l’équipe a conçu un circuit neuronal qui détecte la tension et effectue une conversion analogique-numérique de manière économe en énergie. Cette détection en mode tension peut activer toutes les lignes et toutes les colonnes d’une matrice RRAM en un seul cycle de calcul, ce qui permet un parallélisme plus élevé. Dans l’architecture NeuRRAM, les circuits neuronaux CMOS sont physiquement entrelacés avec les poids RRAM. Les connexions du neurone avec la matrice RRAM peuvent être configurées pour servir d’entrée ou de sortie du neurone. Cela rend l’architecture plus facile à reconfigurer. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| | | Un premier pas vers l’échelle industrielle pour les carburants solaires ? La start-up Synhelion a posé la première pierre le mardi 6 septembre en Allemagne de son usine pilote de production de carburant solaire. Prévue pour être opérationnelle en 2023, celle-ci doit produire quelque 150 000 litres de carburant pour avion par an – de quoi faire le plein de 3 ou 4 Airbus A321XLR - à partir de soleil, de CO2, d’eau et de méthane. « Cette usine doit montrer que notre technologie fonctionne à l'échelle industrielle, que l'on peut produire et utiliser notre carburant et qu'il aide à réduire le bilan carbone du transport aérien », résume Carmen Murer, responsable de la communication chez Synhelion. Issue de l'Ecole polytechnique fédérale de Zurich, la start-up développe une technologie au principe séduisant : des miroirs concentrent la chaleur du soleil dans un réacteur où une réaction d’oxydo-réduction catalytique à très haute température produit du gaz de synthèse à partir de CO2, d’eau et, désormais, de méthane. Ce syngaz, un mélange de monoxyde de carbone et d’hydrogène, peut être ensuite transformé en carburant par la réaction classique de Fischer-Tropsch. Une première version de la technologie, testée dès 2016 à Madrid dans le cadre du projet européen Sun-to-Liquid, utilisait un réacteur tapissé de dioxyde de cérium fonctionnant à 1500°C pour produire le gaz de synthèse à partir d’eau et de CO2 uniquement. Mais le faible rendement observé – 4 % - a conduit la start-up à modifier son procédé pour des tests ultérieurs en Allemagne. « Nous avons fait évoluer notre processus et utilisé du méthane en plus du CO2 et de l'eau », précise Carmen Murer. Avantage : la réaction se contente d’une température de 1 000°C et le rendement atteint jusqu'à 30 %. Inconvénient : l’usage de méthane limite considérablement la réduction des émissions de CO2 associée à l’usage de ce carburant solaire par rapport au kérosène d’origine fossile. Mais le gain sur tout le cycle de vie reste majeur, selon la start-up : « Nous n'avons pas encore les chiffres précis, mais nous tablons sur une réduction des émissions de CO2 d’au moins 50 %, et nous espérons pl us ». Synhelion affiche des ambitions de taille pour sa technologie : à l’horizon 2040, c’est la moitié de la consommation européenne, soit 50 milliards de litres de carburant par an, que veut produire Synhelion. Article rédigé par Georges Simmonds pour RT Flash L'Usine Nouvelle | | | |
| Capter des données à distance est devenu habituel. Nous en recevons quotidiennement, à travers des ondes radio, wi-fi, et 4G/5G… Mais quand il s’agit de recevoir de l’énergie à distance, c’est une autre paire de manches. Une équipe de scientifiques de l’Université de Sejong, à Séoul, s’est penchée sur cette question. Ils ne sont pas les premiers à tenter cette aventure technique. En effet, de nombreuses recherches ont été menées sur le sujet, pour tenter de transmettre de l’énergie par ondes radio, par micro-ondes, ou encore par le biais des rayons laser. Les scientifiques ont cette fois-ci choisi de se pencher sur les potentialités des rayons laser infrarouges. Ils sont parvenus à créer un système capable de transmettre de l’énergie à trente mètres de distance. Le dispositif est composé de deux parties principales : un récepteur et un émetteur. L’émetteur peut être installé dans une pièce. Il s’agit d’une source d’énergie optique : en l’occurrence, elle produit un faisceau de lumière infrarouge, émis à travers l’air. Le récepteur, lui, doit être intégré à l’appareil à recharger. Il réceptionne ce faisceau pour initier le rechargement. Il est composé d’un "rétroréflecteur à lentille sphérique" : concrètement, cela signifie qu’il concentre la lumière reçue en un point central. À cet endroit, la lumière est convertie en électricité au moyen d’une cellule photovoltaïque. Si la ligne de visée entre l’émetteur et le récepteur est interrompue, l’appareil passe rapidement et automatiquement dans un mode à faible consommation d’énergie. Les premiers tests de ce dispositif semblent avoir été concluants. L’équipe a été en mesure de transmettre un faisceau de lumière de 400 mW sur une distance de 30 mètres. Le récepteur de 10 x 10 mm l’a alors converti en 85 mW de puissance électrique… ce qui n’est pas beaucoup. Le dispositif reste, de fait, insuffisant pour le moment pour alimenter un appareil gourmand en énergie, comme un smartphone. En l’état actuel, il pourrait seulement alimenter l’équivalent d’un ou deux petits capteurs, peu gourmands en énergie. Les scientifiques affirment cependant que leur technologie pourrait être améliorée et mise à l’échelle pour permettre l’alimentation de plus grands appareils tels que des smartphones. Il suffirait alors potentiellement d’entrer dans une pièce équipée d’un émetteur pour que celui-ci se voie rechargé automatiquement. Article rédigé par Georges Simmonds pour RT Flash Optics Express | | | |
| En Suisse, des chercheurs de l’EPFL ont réalisé une étude montrant qu’il va falloir réduire la taille des logements d’ici 2050, pour parvenir à mieux maîtriser la consommation d’énergie liée au chauffage des logements, qui représente 40 % de la demande finale d’énergie. La Suisse, pays de locataires à 58 %, a vu la surface habitable moyenne de ses logements augmenter progressivement ces dernières années. Il en va de même pour la surface par personne en m2. Cette dernière valeur est directement liée à l’impact environnemental d’un bâtiment. Aujourd’hui, un appartement de 100m2 par exemple est construit et chauffé de la même manière, qu’il soit habité par deux ou quatre personnes. « C’est donc cette surface par personne que l’on doit impérativement diminuer à long terme pour obtenir des logements plus écologiques, or aujourd’hui, c’est tout l’inverse qui se produit », déplore Margarita Agriantoni. « Cette situation est problématique car la population suisse continue d’augmenter tout comme la demande de logements. Mais trouver des surfaces habitable s devient toujours plus complexe ». Sa thèse, dirigée par le professeur Philippe Thalmann au sein du Laboratoire d’Economie Urbaine et de l’Environnement (LEURE) de la Faculté de l’environnement naturel, architectural et construit (ENAC), s’inscrit dans un projet multidisciplinaire financé par le Fonds national suisse de la recherche (FNS). Ce projet réunit également les travaux du Laboratoire sur les relations homme-environnement dans les systèmes urbains (HERUS) de l’EPFL ainsi que la Chaire de conception de systèmes écologiques (ESD) à l’ETH de Zurich. Les scientifiques ont développé des outils de mesure qui combinent des valeurs aussi bien techniques que sociologiques. Un modèle qui, à terme, pourrait être exploité dans d’autres villes d’Europe. Ils se sont concentrés sur un parc immobilier locatif de 11 000 logements répartis dans tout le pays, appartenant à deux coopératives – ABZ à Zurich et la Société Coopérative d’Habitation de Lausanne (SCHL) – ainsi qu’à l’assureur La Mobilière. Un mélange de bâtiments issus du secteur privé et coopératif s’est révélé pertinent puisque leur mode de fonctionnement dans la gestion et la construction diffère. La première étape a consisté à créer une base de données détaillée de l’entier du parc immobilier couvrant aussi bien des informations comme le prix du terrain, les m2, les rénovations, les loyers, etc. Margarita Agriantoni y a consacré une année de travail. «J’ai mené plusieurs workshops avec les propriétaires, afin de comprendre leur stratégie d’investissement comme leur gestion interne ». Deuxième champ d’exploration : les locataires (étudiés par HERUS). Un échantillon de 1000 personnes a répondu à un questionnaire évaluant leur situation familiale, leur nombre par appartement ou encore leur satisfaction de leur lieu de vie afin de comprendre plus finement qui habite où et comment. Sur la base de ces informations, les scientifiques ont construit un modèle multi-agent au plus proche de la réalité actuelle. Ce modèle dynamique couple les décisions des locataires avec celles des propriétaires sur 30 ans. « C’est ainsi que nous avons réalisé notre scénario de référence. Ce dernier montre une augmentation de 11 % de la surface par personne d’ici 2050 ». Quatre différents scénarios ont été comparés à celui-ci afin d’étudier si cette tendance pouvait être inversée en modifiant certains paramètres du modèle de base. Dans le premier, les propriétaires appliquent des règles d’occupation plus strictes. Dans le deuxième, les propriétaires densifient davantage leur parc immobilier existant au profit de nouvelles constructions. Dans le troisième, les ménages ont une sensibilité écologique plus aiguisée qui les motive à adapter la taille du logement aux nombres de personnes. Résultat de ces trois scénarios : l’augmentation de la surface est atténuée mais se poursuit néanmoins. Le scénario le plus efficace, le quatrième, est une combinaison des deux premiers. Malgré tous ces paramètres réunis, la courbe ne s 217;inverse toujours pas. Quelles solutions face à ce constat ? «Il faut une combinaison de mesures de la part des locataires et des propriétaires », estime l’étude. « Promouvoir la conscience environnementale des locataires est essentiel mais difficile à mettre en place. Au même titre qu’il est plus écologique de privilégier le vélo à la voiture, choisir un logement adapté à la taille du ménage devrait être tout aussi important sans sacrifier son confort pour autant ». Les propriétaires doivent également changer leurs habitudes de construction. « Quelques mètres carrés de moins suffisent à avoir un réel impact écologique ». Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Des chimistes du laboratoire COBRA (CNRS/INSA Rouen/Université de Rouen Normandie) proposent une voie de synthèse alternative qui part d’une molécule de base peu coûteuse et abondante pour atteindre des molécules fluorées largement utilisées. Ce processus s’avère robuste, tolérant à l’air et à l’humidité. Les caractéristiques uniques de l’atome de fluor – sa très petite taille combinée à une des plus fortes électronégativités – permettent de moduler de nombreuses propriétés comme la stabilité métabolique ou la lipophilie des molécules organiques qui le contiennent. Pour ne citer qu’un exemple, les molécules trifluorométhylées, qui contiennent un groupement CF3, entrent dans la composition de l’antidépresseur le plus prescrit au monde avec des ventes annuelles qui se chiffrent en milliards de dollars. Les méthodes existantes de synthèse de ces molécules fluorées nécessitent de partir d’une molécule de base, appelée substrat, qui doit être fonctionnalisée au préalable pour ensuite pouvoir la modifier et obtenir un composé comportant le groupement fonctionnel CF3 souhaité. Ces procédés nécessitent souvent plusieurs étapes et/ou des réactifs coûteux. Pas étonnant que l’industrie chimique cherche constamment de nouvelles méthodes efficaces, pratiques et sélectives comme alternatives durables aux voies existantes pour introduire ces groupements fluorés sur des briques moléculaires de base. Une équipe du laboratoire Chimie Organique Bioorganique : Réactivité et Analyse (COBRA, CNRS/INSA Rouen/Université de Rouen Normandie) s’est intéressée à une voie alternative qui partirait d’une molécule de base peu coûteuse et largement abondante car elle-même déchet d’une autre réaction de chimie organique : le 2-bromo-3,3,3-trifluoropropène (BTP). De ce déchet de l’industrie, ils ont pu générer in situ le partenaire de réaction clé à partir duquel les produits fluorés recherchés, les ß-trifluorométhylstyrènes, ont pu être obtenus par activation de liaisons C-H catalysée au Ruthénium. Ce processus s’est avéré robuste, tolérant à l’air et à l’humidité ainsi qu’à la présence d’ ;autres groupements fonctionnels sur les molécules présentes durant la réaction. Des études mécanistiques poussées associées à des calculs théoriques par DFT leur ont par ailleurs permis de mettre directement en évidence la réactivité unique d’un complexe intermédiaire de ruthénium cyclométallé (cycle de carbone où le ruthénium remplace un atome de carbone). Cette nouvelle preuve de l’efficacité de ces métallacycles comme espèce catalytiquement active dans des processus d’activation de liaisons C-H vient confirmer leur potentiel catalytique récemment mis en avant par d’autres groupes. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Les projets se multiplient et certaines technologies arrivent à maturité, à l’image du projet européen SUN-to-LIQUID. Celui-ci a ainsi abouti à la production de kérosène synthétique à partir de CO2, d’eau et d’énergie solaire et la première usine de production industrielle du monde devrait voir le jour en 2023. Pour ce qui est de la production de carburant solaire, l’une des solutions serait alors d’imaginer des dispositifs flottants sur l’eau, ce qui permettrait d’éviter la multiplication de fermes au sol. Cela fait plusieurs années que l’équipe du professeur Erwin Reisner de Cambridge travaille sur le sujet des carburants solaires. En 2019, ils ont ainsi mis au point un prototype de feuille artificielle. Néanmoins, ce dispositif constitué de substrats en verre épais et de revêtements de protection contre l’humidité avait l’inconvénient d’être lourd et volumineux. Selon le Docteur Virgil Andrei, du département de chimie Yusuf Hamied de Cambridge et co-auteur principal de l’étude, « Les feuilles artificielles pourraient réduire considérablement le coût de la production de carburant durable, mais comme elles sont à la fois lourdes et fragiles, il est difficile de les produire à grande échelle et de les transporter. Si nous parvenons à réduire suffisamment les matériaux pour qu’ils soient assez légers pour flotter, cela ouvre la voie à de toutes nouvelles possibilités d’utilisation de ces feuilles artificielles ». Pour les chercheurs, trouver un moyen de déposer des absorbeurs de lumière sur des substrats légers constituait ainsi un défi d’autant plus grand qu’il fallait également les protéger contre les infiltrations d’eau. Pour la nouvelle version de leur feuille artificielle, les chercheurs se sont alors inspirés des techniques de miniaturisation de l’industrie électronique. Dans ces recherches, les scientifiques ont utilisé des oxydes métalliques en couches minces et des matériaux de type pérovskites, qui ont été déposés sur des feuilles de plastique et de métal flexibles. Les dispositifs ont ensuite été recouverts de couches de carbone hydrofuges de l’ordre du micromètre afin d’empêcher la dégradation par l’humidité. Au final, ils ont obtenu un dispositif qui, non seulement, fonctionne, mais ressemble aussi à une vraie feuille. Cette étude a permis de démontrer que les feuilles artificielles sont compatibles avec les techniques de fabrication modernes, ce qui représente une première étape vers l’automatisation et la mise à l’échelle de la production de combustible solaire. Des améliorations seront bien entendu nécessaires avant d’arriver au stade du développement commercial, mais les chercheurs imaginent déjà des applications, comme l’alimentation en carburant d’établissements côtiers, d’îles éloignées ou encore de bassins industriels. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Des voiles de bateaux pour produire de l'électricité verte, c'est l'ambition de la jeune entreprise Heole qui vient de mettre au point un premier prototype. « Il s'agit d'une grand-voile d'une surface de 90 m² équipée sur 12 m² de cellules photovoltaïques souples et translucides », détaille Jean-Marc Kubler, directeur général et l'un des dix associés d'Heole créé à Vannes en 2021. Fabriquées à base de polymères issus de la chimie organique et non à partir de silicium, les cellules photovoltaïques utilisées par Heole, sont semi-transparentes et captent donc la lumière sur les deux faces. Elles produisent de l'énergie même par temps gris, tôt le matin et tard le soir. Le skipper n'a pas à adapter l'orientation de ses voiles en fonction du soleil. « Cette première voile solaire organique », continue Jean-Marc Kubler, « peut alimenter le bord en énergie » afin de faire fonctionner le réfrigérateur, l'ordinateur, les instruments de navigation comme le pilote automatique. Enroulable, la voile équipée des membranes photovoltaïques n'est pas plus lourde qu'un modèle conventionnel. A moyen terme, l'amélioration des rendements des cellules facilitera l'utilisation des moteurs électriques d'un bateau pour une « navigation 100 % décarbonée ». Le skipper Marc Guillemot, qui est associé au projet d'Heole, va tester pendant plusieurs mois la robustesse de la solution, notamment au cours de la prochaine édition de la Route du Rhum qui partira de Saint-Malo le 6 novembre prochain. Mais les applications potentielles vont bien au-delà de la course au large. « On travaille à la création d'une enveloppe pour un dirigeable », dévoile Jean-Marc Kubler. Une toile de tente va également être équipée de cellules photovoltaïques. Dans le domaine maritime, Heole évoque la possibilité d'équiper les cargos et les bâches de camions pourraient aussi être recouvertes de membranes. « Nous estimons que, dans une décennie, la voile photovoltaïque sera d'un prix équivalent à celui d'une voile classique », confie-t-il. Pour se développer, Heole va avoir besoin de fonds propres et prépare une première levée de l'ordre de 250.000 euros, qui facilitera la mise sur le marché de sa voile solaire organique, si possible dès l'an prochain. Article rédigé par Georges Simmonds pour RT Flash Les Echos | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Dans la cellule bactérienne, l’ADN est fortement compacté (d’un facteur 1000) par des protéines et par la présence de torsions mécaniques induisant un surenroulement (supercoiling). Ce dernier varie selon les conditions physiologiques et joue un rôle régulateur important dans les fonctions du génome, suivant des mécanismes moléculaires encore peu élucidés. En particulier, le surenroulement et la transcription en ARN sont fortement couplés, mais du fait que ce couplage intervient à différentes étapes, sa complexité rend difficile l’établissement de modèles prédictifs comparables à ceux impliquant les facteurs de transcription. Dans cette étude, les scientifiques proposent un modèle quantitatif, basé sur les propriétés mécaniques connues de l’ADN et essentiellement sans paramètre ajustable, prédisant un effet régulateur du surenroulement sur la fixation de l’ARN Polymérase sur le promoteur (ses éléments -35 et -10) lors de l’étape initiale de la transcription (la formation du complexe fermé). Cette régulation dépend de façon subtile de distance physique (spacer) entre ces éléments. Dans le modèle proposé, cette distance est liée à l’angle de torsion entre les deux éléments fixés par l’ARN polymérase en raison de l’hélicité de l’ADN. Le niveau de surenroulement module l’angle et engendre plusieurs types de promoteurs, les "plus courts" étant favorisés par le relâchement du chromosome, tandis que les "longs" sont favorisés par un état fortement surenroulé. Le modèle proposé est un des rares exemples d’effets mécaniques simples, basés sur les propriétés fondamentales connues de l’ADN (structure et flexibilité), permettant des prédictions quantitatives pour un processus d’intérêt biologique (la régulation transcriptionnelle en réponse à des changements environnementaux). Ces prédictions sont validées d’une part par des études de transcription in vitro et in vivo impliquant des promoteurs présentant des spacers de taille variable et d’autre part grâce à une analyse théorique rigoureuse pour séparer l’effet étudié d’autres effets complexes du surenroulement de l’ADN. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Plusieurs études présentées à l’occasion de la conférence "Conséquences et gestion de l'apnée obstructive du sommeil" au congrès international de la Société respiratoire européenne (ERS) à Barcelone, en Espagne, ont montré que l’apnée du sommeil entraînait une augmentation du risque de cancer, de caillots sanguins et une diminution des capacités de traitement mental… Ce sont en premier lieu les personnes âgées de 74 ans ou plus, et en particulier les hommes, qui présentaient un déclin plus marqué dans certains tests cognitifs et chez qui le déclin des capacités de traitement était le plus flagrant. S'exprimant avant le congrès, le Docteur Nicola Marchi, de l'hôpital universitaire de Lausanne a déclaré : « Nous avons constaté que le SAOS et, en particulier, les faibles niveaux d'oxygène pendant le sommeil dus au SAOS, étaient associés à un déclin plus important de la fonction cognitive globale, de la vitesse de traitement, de la fonction exécutive et de la mémoire verbale ». Lors du congrès, l'association entre le syndrome d'apnée obstructive du sommeil (SAOS) et l'incidence des thromboembolies veineuses a également été révélée, et c'est une première. L’étude, présentée par le professeur Wojciech Trzepizur, de l'hôpital universitaire d'Angers, en France, a en effet montré que les patients souffrant d'un SAOS plus sévère, étaient plus susceptibles de développer une thromboembolie veineuse (TEV). Développer des caillots sanguins dans les veines est une condition potentiellement mortelle et, sur les 7 355 patients suivis pendant plus de six ans, 104 ont développé une TEV. « Nous avons constaté que les personnes qui passaient plus de 6 % de leur temps de nuit avec des niveaux d'oxygène dans le sang inférieurs à 90 % de la normale avaient un risque presque double de développer des TEV par rapport aux patients qui ne manquaient pas d'oxygène », a déclaré le professeur Trzepizur. C’est également le manque d’oxygène induit par le SAOS qui serait à l'origine de l’association connue entre cette condition et le risque accru de cancer. Jusqu’à présent on ne connaissait que l’obésité, les maladies cardiométaboliques et le mode de vie comme facteurs de risque de développer un cancer, et cette nouvelle étude prouve que le SAOS est bien associé au cancer de manière indépendante. Pour arriver à cette conclusion, le Docteur Andreas Palm, chercheur et consultant principal à l'Université d'Uppsala, en Suède, et ses collègues ont examiné les données de 62.811 patients cinq ans avant le début du traitement du SAOS en Suède. Entre juillet 2010 et mars 2018, les patients ont été traités par pression positive continue des voies respiratoires (CPAP), qui fournit une pression positive d'air à travers un masque pour maintenir les voies respiratoires ouvertes pendant le sommeil. « Nous avons constaté que les patients atteints de cancer présentaient un SAOS légèrement plus grave, mesuré par un indice d'apnée-hypopnée moyen de 32 contre 30, et un indice de désaturation en oxygène de 28 contre 26 », a-t-il déclaré. Cette nouvelle donnée prouve la nécessit&e acute; de considérer l'apnée du sommeil non traitée comme un facteur de risque de cancer et de sensibiliser les médecins à la possibilité d'un cancer lorsqu'ils traitent des patients atteints de SAOS, indiquent les chercheurs. Article rédigé par Georges Simmonds pour RT Flash ERS | | | |
| Chez les nourrissons, la pollution atmosphérique peut également avoir des impacts néfastes sur leur microbiome intestinal, selon une nouvelle étude réalisée par l’Université du Colorado à Boulder (États-Unis). Ces effets délétères pourraient augmenter les risques d’allergies, d’obésité et de diabète chez les plus jeunes et pourrait influer le bon développement de leur cerveau. Ces travaux sont les premiers à mettre en évidence le lien entre les polluants inhalés, issus de la circulation, des feux de forêt ou encore de l’industrie, et l'évolution de la santé microbienne lors du développement d’un nouveau-né. « Le microbiome joue un rôle dans presque tous les processus physiologiques de l’organisme », a souligné Maximilian Bailey, un des auteurs de l’étude et étudiant en médecine à l’Université de Stanford. Pour les besoins de l’étude, les chercheurs ont analysé des échantillons fécaux de 103 nourrissons en bonne santé et d’origine latine qui avaient été recrutés pour une recherche sur le lait maternel en Californie du Sud. Les prélèvements ont été étudiés par séquençage génétique. Les scientifiques ont également observé les données du système de qualité de l’air de l’Agence américaine de protection de l’environnement. Ils ont évalué l'exposition aux PM2,5 et PM10, des fines particules inhalables provenant notamment des usines, des incendies de forêt et des chantiers de construction, et au dioxyde d'azote (NO2), un gaz largement émis par les voitures. D’après les résultats, les nourrissons fortement exposés aux PM2,5 ont 60 % moins de chances de développer la Phascolarctobacterium, une bactérie présente dans le microbiome intestinal permettant de réduire les risques d’inflammation, d’améliorer la santé gastro-intestinale et de favoriser le développement neurologique. « Dans l'ensemble, nous avons constaté que l'exposition à la pollution de l'air ambiant était associée à un profil microbien intestinal plus inflammatoire, ce qui peut contribuer à l'apparition d'effets néfastes sur la santé », a déclaré Tanya Alderete, auteure principale de l’étude et professeur adjoint de physiologie intégrative à l’Université du Colorado. Les nouveau-nés font partie des populations très vulnérables face aux dangers de la pollution atmosphérique. Leur microbiome intestinal est en train de se former et ils respirent plus vite qu’un adulte, donc ils inhalent plus d’air pollué. « Cela fait du début de la vie, un passage critique où l'exposition à la pollution atmosphérique peut avoir des effets délétères disproportionnés sur la santé », peut-on lire dans la recherche. Article rédigé par Georges Simmonds pour RT Flash University of Colorado Boulder | | | |
| Une infection à Omicron doublée d’une vaccination contre le Covid-19 serait la meilleure combinaison contre une potentielle infection par les sous-variants circulant actuellement, soit BA.5 et éventuellement BA.4. C’est le constat formulé par une étude de l’Institut de médecine moléculaire basé au Portugal. « Les personnes vaccinées qui ont été infectées par les sous-variants Omicron BA.1 et BA.2 ont une protection contre l’infection par le sous-variant BA.5, en circulation depuis juin, environ quatre fois supérieure à celle des personnes vaccinées qui n’ont été infectées à aucun moment », explique Luis Graça, co-responsable de l’étude. Une protection également offerte par les variants de souche du Covid-19, soit Alpha et Delta. « Les infections en 2020 et 2021 qui se sont produites par infection des variants antérieurs du virus SARS-CoV-2 confèrent également une protection contre l’infection par le variant Omicron plus récent, bien que cette protection ne soit pas aussi élevée que celle des individus infectés par les variants BA.1 et BA.2 début 2022 », continue-t-il. Si les vaccins Covid actuels sont moins efficaces pour bloquer l’infection à Omicron par rapport aux variants antérieurs, les nouveaux actuellement en développement clinique ou tout justes autorisés par les agences sanitaires (Moderna et Pfizer-BioNTech) sont basés sur le sous-variant BA.1, dominant en janvier et février 2022. Ce qui permettrait potentiellement une meilleure réponse immunitaire. Ces résultats, obtenus par l’accès au registre national des cas de Covid-19 au Portugal, permettent ainsi « d’anticiper le bénéfice de vaccins adaptés » contre le Covid-19 et démontrent néanmoins une nouvelle fois l’importance de la vaccination, qui continue à éviter les formes graves de la maladie. Article rédigé par Georges Simmonds pour RT Flash NEJM | | | |
| La triiodothyronine est une hormone thyroïdienne qui joue un rôle clé dans le développement fœtal de la cochlée, la partie de l’oreille interne en charge de l’audition. Cette hormone active localement deux types de récepteurs – TRβ et TRα – qui vont à leur tour déclencher de nombreuses voies moléculaires impliquées dans la mise en place des fonctions auditives. Dès lors, certaines mutations des gènes codant pour TRβ (THRB) ou TRα (THRA) sont susceptibles d’altérer ces processus. Plusieurs d’entre elles, localisées dans le gène THRB, sont connues pour causer une résistance à l’hormone thyroïdienne et sont souvent associées à des surdités. D’autres, qui affectent le gène THRA, ont été plus ré cemment repérées chez une poignée de personnes en France. Elles conduisent à des symptômes variés de sévérité diverse (retard de croissance, malformations osseuses…) mais, à ce jour, aucune information clinique relative à l’audition de ces patients n’est encore disponible. Cependant, les souris chez lesquelles THRB a été rendu non fonctionnel ont une surdité plus sévère lorsqu’elles sont également dépourvues du gène THRA. À l’Institut des neurosciences de Montpellier, la chercheuse Jing Wang a donc émis l’hypothèse que la mutation de THRA pourrait affecter l’audition. Les travaux qu’elle a conduits avec ses collègues confirment cette hypothèse et indiquent que la mutation de ce gène aurait pour conséquence principale une moins bonne perception des hautes fréquences sonores. p> Dans son laboratoire, Jing Wang explore les mécanismes liés aux pathologies de l’audition, innées ou acquises, afin d’identifier des outils diagnostiques précoces de la surdité et des acouphènes, ainsi que pour développer des traitements innovants. Avec son équipe, elle utilise des modèles animaux pour explorer les modifications morphologiques, physiologiques, biochimiques et biologiques induites par divers facteurs qui favorisent les troubles de l’audition. « Nous avons étudié comment la mutation humaine du gène THRA se traduit lorsqu’elle est introduite chez la souris. Il est apparu que l’implantation de certaines cellules de l’oreille interne des animaux devient alors anormale. Il s’agit de cellules ciliées externes, normalement chargées d’amplifier les vibrations sonores et qui contribuent à la distinction de leurs différentes fréquences. Cette anomalie conduit à une perte de perception des fréquences aiguës par les souris porteuses de la mutation », résume la chercheuse. Ces travaux ont aussi révélé que les fibres nerveuses qui constituent le nerf auditif sont moins nombreuses en l’absence d’un récepteur TRα fonctionnel. Enfin, les cellules ciliées apparaissent plus vulnérables à différents types d e stress : exposition à des sons forts, médicaments délétères pour l’audition (médicaments dits ototoxiques) ou encore mécanismes oxydatifs liés au vieillissement. « Afin de savoir si ces altérations sont retrouvées chez l’humain, nous allons recevoir les patients qui ont été identifiés avec cette mutation et conduire des tests qui porteront spécifiquement sur la fonctionnalité de leurs cellules ciliées externes », poursuit Jing Wang. « Si le bilan auditif de ces personnes révèle une atteinte comparable à celle observée dans notre modèle murin, nous les sensibiliserons au risque encouru, en attendant de valider la totalité de nos données ». Chez les humains, la disparition des cellules ciliées externes engendre une perte d’audition de 40 à 50 décibels et une moins bonne capacité à différencier finement les sons, ce qui peut conduire à entendre sans toujours parfaitement comprendre. Une évaluation systématique et régulière de l’audition des personnes porteuses de la mutation pourrait donc être recommandée, associée à la préconisation d’attitudes préventives, comme éviter l’exposition à des sons forts et la prise de médicaments ototoxiques. À plus long terme, des approches thérapeutiques pourraient être imaginées, par exemple en utilisant la thérapie cellulaire pour augmenter leur pool de cellules ciliées fonctionnelles et correctement implantées. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Le risque d'AVC précoce, c’est-à-dire ici avant l’âge de 60 ans, pourrait être prédit, en petite partie, par le groupe sanguin. C’est la conclusion surprenante de cette nouvelle étude, menée à l’Université du Maryland, publiée dans la revue Neurology et qui pourrait conduire à de nouvelles façons de prévenir les AVC chez les adultes plus jeunes. « Le nombre de patients victimes d'un AVC précoce augmente. Ces personnes plus jeunes ont un risque très accru d’invalidité et de décès et pourtant, il existe peu de recherches sur les causes de ces AVC précoces », rappelle l’auteur principal, le Docteur Steven J. Kittner, professeur de neurologie et neurologue clinicien au centre médical de l'Université du Maryland. L’analyse montre, en d’autres termes, que le groupe sanguin d'une personne peut être lié à son risque d'avoir un accident vasculaire cérébral précoce, selon cette nouvelle méta-analyse de toutes les données disponibles d'études génétiques axées sur les AVC ischémiques, causés par un blocage du flux sanguin vers le cerveau, survenant chez les jeunes adultes de moins de 60 ans. Cette méta-analyse de 48 études sur la génétique et l'AVC ischémique, portant sur un total de 17.000 patients victimes d'AVC, par rapport à près de 600.000 témoins en bonne santé, n’ayant jamais subi d'AVC, identifie un lien entre un AVC précoce – survenant avant l'âge de 60 ans – et la zone du chromosome qui comprend le gène qui détermine si le groupe sanguin est A, AB , B ou O ; les patients victimes d’AVC précoce sont plus susceptibles d'avoir le groupe sanguin A et moins susceptibles d'avoir le groupe sanguin O (le groupe sanguin le plus courant) . L’étude montre que le fait de subir un AVC précoce ou/et tardif est associé également à une probabilité plus élevée d’avoir le groupe sanguin B, par rapport au groupe-témoins ; après ajustement avec les facteurs de confusion possibles, les personnes avec groupe sanguin A présentent un risque accru de 16 % d’AVC précoce vs autres groupes sanguins ; les personnes avec groupe sanguin O présentent un risque réduit de 12 % d’AVC précoce vs autres groupes sanguins. « Cette méta-analyse identifie donc des associations entre le groupe sanguin et le risque d'AVC précoce. L'association du groupe sanguin avec un AVC d'apparition tardive est en revanche beaucoup plus faible », concluent les chercheurs qui précisent néanmoins que la variation du risque associée au groupe sanguin reste modeste. Ainsi, lorsqu’on a pour groupe sanguin le groupe A, il n’est pas « utile » de s’inquiéter. Ils ne devraient pas s'inquiéter d’avoir un AVC précoce voire de s'engager dans un dépistage supplémentaire. Cependant, l’analyse soulève la question des raisons de cette association, question dont la réponse pourrait peut-être contribuer à trouver de nouvelles façons de prévenir ces événements dévastateurs chez les jeunes adultes. Article rédigé par Georges Simmonds pour RT Flash Neurology | | | |
| Largement favorisé par un usage abusif et injustifié des antibiotiques, le phénomène d’antibiorésistance menace de nous ramener à un « âge sombre » où des infections autrefois mineures redeviendraient mortelles. Des chercheurs américains de l’Université de l’Illinois et du MIT ont mis au point un nouveau candidat antibiotique prometteur. Partant d’un composé existant efficace contre les bactéries gram positives, l’équipe a modifié sa structure afin de tenter de le rendre plus performant contre les souches gram négatives. Nommé Fabimycine, celui-ci s’est révélé efficace contre plus de 200 colonies cliniquement isolées de superbactéries, comprenant un total de 54 souches de microbes comme E. coli, Klebsiella pneumoniae et Acinetobacter baumannii. Lors de tests effectués sur des souris, celui-ci a éliminé les cas de pneumonie ou d’infections des voies urinaires résistantes aux médicaments, en réduisant les taux de bactéries à un niveau inférieur à celui précédant l’infection. Fait important, la Fabimycine s’est montrée relativement sélective dans son attaque, laissant largement indemnes certains types de bactéries inoffensives. Ce qui constitue une amélioration significative par rapport à de nombreux antibiotiques existants connus pour éradiquer sans distinction de nombreux microbes bénéfiques, à l’origine d’un vaste éventail d’effets secondaires indésirables. Article rédigé par Georges Simmonds pour RT Flash ACS | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|