| | | | | | | Edition du 24 Novembre 2023 |
| |
|
| Edito L'IA va-t-elle dépasser l'intelligence humaine ?
APPEL aux DONS : IL VA ETRE TRES DIFFICILE D'ATTEINDRE NOTRE OBJECTIF... En cette fin d'année 2023, nous nous retrouvons dans une situation singulière. Toutes les organisations bienfaitrices (Restos du Cœur, Secours Catholique, Secours Populaire et des centaines d'autres associations aidant les gens en difficulté) se retrouvent actuellement en difficulté car tous les aliments et tous les vêtements dont ils ont besoin pour venir en aide aux plus démunis sont devenus plus chers. Aussi, pour faire face à ces difficultés, et je les comprends, ils ont lancé dans ces dernières semaines de nombreuses campagnes d'appels aux dons. Or, les donateurs, souffrant eux aussi de l'inflation, doivent faire des choix. Et ils jugent que leur argent sera plus utile pour aider les gens en difficulté plutôt que d'aider une petite Lettre scientifique et technologique qui certes les aide à acquérir de nouvelles connaissances et à mieux imaginer l'avenir avec des découvertes de plus en plus disruptives. Voici, pour moi, la raison du retard que prend actuellement la campagne de dons pour sauver RT Flash, due à ces choix que doit faire notre lectorat. Or, il est vital pour l'avenir de RT Flash que nous sachions collecter les 15.000 euros qui sont nécessaires à notre Association ADIST pour une année. Cette somme est nécessaire pour faire fonctionner tous nos outils technologiques. Et il ne nous est pas possible de réduire cette somme annuelle de 15.000 € car les 3 personnes (Monique, Mark et moi-même) qui chaque semaine, depuis 1998, donnent de nombreuses heures pour que chaque vendredi vous retrouviez RT Flash, sur votre PC, votre tablette ou votre smartphone sont bénévoles. En ce 23 Novembre, date de remise de cet édito aux moyens techniques, l'association ADIST qui gère RT, n'a enregistré que 5.622,30 euros alors qu'il nous faut atteindre 15.000 euros avant le 31 Décembre. Pourquoi ce 31 décembre est-il une date butoir ? Simplement parce que les personnes qui font un don avant le 31 décembre pourront retirer les 2/3 de leur don lors de la prochaine déclaration de leur impôt sur le revenu quelques semaines plus tard. Cela est vrai pour les Restos du Cœur mais aussi pour RT Flash. Sans vous tous qui acceptez de faire des dons, RT Flash n'existerait plus. Nous avons bien conscience de la précarité de notre situation mais vous remercier chaque semaine avec des articles et un édito dont les rédacteurs et moi-même sommes totalement bénévoles nous apporte beaucoup de joie et de bonheur. René Trégouët Sénateur Honoraire Créateur du Groupe de Prospective du Sénat Rédacteur en Chef de RT Flash Président de l'ADIST (l'ADIST est une association qui gère RT Flash) Si vous voulez aider RT Flash, lettre d’informations scientifiques, gratuite et sans publicité depuis 1998, appuyez sur ce lien HelloAsso EDITORIAL L'IA va-t-elle dépasser l'intelligence humaine ? L’histoire de l’intelligence artificielle (même si le mot n’existait pas encore) est aussi ancienne que l’informatique et la cybernétique et débute en 1943, avec la publication de l’article « A Logical Calculus of Ideas Immanent in Nervous Activity » par Warren McCullough et Walter Pitts. Dans cette publication, les scientifiques présentent le premier modèle mathématique pour la création d’un réseau de neurones. Deux ans après la sortie de « Cybernétique, ou le contrôle de la communication chez l’homme et l’animal », le célèbre livre de Norbert Wiener (le père de la cybernétique), deux étudiants de Harvard, Marvin Minsky et Dean Edmonds, créèrent Snarc, le premier ordinateur à réseau de neurones. La même année, en 1950, le génial s cientifique britannique Alan Turing publia le fameux test de Turing, protocole qui sert encore pour évaluer les IA. De ce test découlent les fondations de l’intelligence artificielle, de sa vision et de ses objectifs : répliquer ou simuler l’intelligence humaine dans les machines. Mais ce n’est qu’en 1956 que le terme d’intelligence artificielle sera prononcé pour la première fois, durant la conférence « Dartmouth Summer Research Project on Artificial Intelligence » de John McCarthy. Lors de cet événement, les chercheurs présentent les objectifs et la vision de l’IA. Il est en effet admis que cette conférence légendaire qui eut lieu pendant l'été 1956 au Dartmouth College et regroupa notamment John McCarthy, Marvin Minsky et Claude Shannon, marqua la naissance de l'IA comme discipline scientifique et comme aventure technologique. Dès son origine l’IA fut parfaitement définie par Marvin Minsky comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains, en raison de ses capacit és cognitives uniques et inégalées ». En 1959, Arthur Samue, qui travaillait chez IBM, inventa le terme de Machine Learning, et en 1965, on vit apparaître Dendral, le premier système expert permettant d'identifier les constituants chimiques d'un matériau à partir de spectrométrie de masse et de résonance magnétique nucléaire. En 1987, le chercheur français Yann Lecun mit au point le premier réseau de neurones capable de reconnaître des chiffres écrits à la main, une invention qui sera à l’origine du développement du deep learning. Et c’est dix ans plus tard, en 1997, qu’un événement majeur marque l’histoire de l’IA. Le système Deep Blue d’IBM triomphe du champion du monde d’échecs Gary Kasparov. Pour la première fois, la machine a vaincu l’Homme. En France, on ne peut pas évoquer l'IA sans rappeler le rôle déterminant de Jacques Pitrat (1934-2019). Cet éminent et infatigable chercheur fut le premier à introduire l'IA en France, dès 1966, à l'occasion de sa thèse de doctorat qui partait déjà de la démonstration automatique de théorèmes, en introduisant le premier la notion de métathéorèmes. Il publia également un premier article sur l’apprentissage automatique des machines et réalisa l’un des premiers programmes de General Game Playing, publié en 1968. Après avoir rejoint l'Institut Blaise Pascal (CNRS) en 1967, il poursuivit pendant plus de 30 ans une brillante et très féconde carrière de chercheur-enseignant et dirigea jusqu'en 2000 l’Institut de programmation de l’université Paris-VI. Grâce à ses nombreux travaux, Jacque s Pitrat a fait considérablement progresser l’apprentissage automatique de la compréhension dans les ordinateurs, ainsi que de la création automatique de stratégies de compréhension et d’action par les machines. On lui doit notamment la notion de métaconnaissances, qui en créent elles-mêmes de nouvelles et les adaptent intelligemment. Il fallut néanmoins attendre les années 2010 pour que l’IA prenne véritablement son envol et commence à se diffuser dans tous les domaines d’activités, de l’industrie à la médecine, en passant par les transports ou la défense. Deux avancées décisives ont permis cette rupture technologique. D’abord l’accès facile à des volumes massifs des données. Ensuite l’exploitation de l’énorme puissance de calcul des processeurs de cartes graphiques des ordinateurs (plus de 1000 milliards d’opérations par seconde) pour accélérer le calcul des algorithmes d’apprentissage. En 2016, AlphaGO, l’IA de Google, a battu le champion du monde (Lee Sedol), un véritable exploit cognitif, quand on sait que le jeu de Go a une combinatoire bien plus importante que les échecs, ce qui exclut une stratégie reposant uniquement sur la puissance de calcul. Et de fait, les incroyables performances atteintes depuis une dizaine d’années par les nouveaux outils d’IA tiennent à la combinaison de trois avancées, une capacité de calcul énorme à un coût toujours plus faible, des bases de données gigantesques disponibles sur l’Internet et une rupture conceptuelle dans l’approche informatique, qui est devenue inductive : au lieu de coder les règles comme pour les systèmes experts, les algorithmes sont conçus de manière à permettre aux ordinateurs de les découvrir seuls par corrélation et classification, sur la base d’un e quantité massive de données. Les capacités incroyables de l’IA sont apparues au grand jour début 2020 (Voir Nature) quand le nouvel outil d’IA, AlphaFold 1, développé par DeepMind, le labo de recherche de Google, s’est avéré capable de prédire rapidement la structure de pratiquement n’importe quelle protéine humaine, prouesse confirmée en juillet dernier avec le décodage annoncé de 300 millions de protéines par Alphafold2, la nouvelle version de l’algorithme de DeepMind. Mais la véritable découverte par le grand public de la puissance sans limites de l’IA a sans doute eu lieu fin 2022, quand OpenAI a mis sur le marché son fameux agent conversationnel, ou "chatbot" ChatGPT (Transformateur Génératif pré-entraîné), qui utilise de manière re marquable l’intelligence artificielle générative pour interagir avec les utilisateurs. Cet outil révolutionnaire est capable de répondre, souvent de façon très pertinente, à une multitude de questions, y compris les plus complexes, de fournir des informations précises et de générer des textes qu’il est souvent difficile, en première instance, de distinguer d’un texte écrit par un Humain… En mars dernier, OpenAI a présenté la nouvelle version très attendue de son grand modèle de langage (LLM), GPT-4. Cette nouvelle version est déjà disponible pour les abonnés ChatGPT (pour 23 euros par mois). OpenAI précise que cette nouvelle IA « est plus fiable, plus créative et capable de traiter des instructions beaucoup plus nuancées que GPT-3.5 ». Alors que ChatGPT3 est limité à 3 000 mots en entrée ou sortie, la nouvelle version peut atteindre 25 000 mots. GPT-3 propose 175 milliards de paramètres, alors que GPT-4 en intègre 100 000 milliards. Mais selon OpenAI, la vraie révolution arrivera en 2025, avec la mise sur le marché de GPT-5 qui devrait être dotée d'une fonctionnalité multimodale et multisensorielle améliorée. Cette future "AIG", Intelligence Artificielle Générale, pourra traiter, combiner et générer tous les types de données, textes écrits, contenus audio, images, vidéos, avec une puissance et une pertinence phénoménales. Microsoft, qui collabore également avec OpenAI sur le projet Copilot visant à intégrer un puissant outil d’IA dans Windows 12 qui sortira en 2024, dévoilera bientôt sa première puce conçue pour ces futures IA génératives universelles. Celle-ci a été développée pour se substituer aux puces de Nvidia et équiper les serveurs des datacenters de Microsoft. Cette puce, qui devrait être baptisée "Athena", démontre la volonté d’autonomie des géants du numérique (Amazon, Microsoft, Google, Facebook, Intel,) qui réalisent des investissements de recherche colossaux pour sortir de leur dépendance en matière de composants électroniques à l’égard de Nvidia. En août dernier, Nvidia, qui a conquis 85 % du marché des puces dédiées à l'IA et dépassé les 1000 milliards de capitalisation boursière, a présenté sa “super puce” GH200, également dédiée à l'intelligence artificielle générative, qui sera disponible fin 2024. Cette nouvelle puce associe 72 cœurs avec un GPU H100, spécialement conçu pour l'accélération des calculs liés à l'IA. Elle sera au cœur du futur calculateur, baptisé DGX GH200, capable d’entraîner les prochains modèles d’IA générative. Ce composant surpuissant vise à permettre au géant américain de conserver son écrasante domination sur ce marché de l'IA en pleine explosion. Mais les autres géants de l'informatique et du numérique n'ont pas dit leur dernier mot et entendent bien combler leur retard et revenir dans la course mondiale aux puces dédiées à l'AI. C'est le cas d’Open AI, qui veut développer ses propres puces IA et c’est aussi le cas d'IBM qui travaille d'arrache-pied à la mise au point d'une puce neuromorphique, NorthPole, imitant le fonctionnement du cerveau humain. Depuis les origines de l'informatique, l'architecture des puces bute sur un obstacle au développement de l'IA, appelé "goulot d'étranglement de von Neumann". Il s'agit d'un phénomène intrinsèque au fonctionnement de la quasi-totalité des puces électroniques, qui limite le transfert de données entre le processeur et la mémoire des systèmes. Cette puce NorthPole se distingue également par une consommation énergétiq ue très réduite, un avantage considérable, compte tenu de la consommation énergétique en plein essor de l’IA au niveau mondial. Cette puce est composée de 256 unités de calcul contenant chacune sa propre unité de mémoire. Cette nouvelle architecture permet à chaque cœur de traitement d’accéder facilement à n’importe quel bloc de mémoire sur la puce. Elle est environ 4 000 fois plus rapide que son prédécesseur, "TrueNorth". Comparée aux puces actuellement utilisées pour l'entraînement des modèles d'IA, NorthPole consomme 25 fois moins d’énergie, pour une vitesse vingt fois supérieure à celle des puces actuelles. NorthPole serait même plus efficace que les dernières puces de NVIDIA. La puissance impressionnante de NorthPole tient au fait que la mémoire est intégrée direct ement sur la puce. NorthPole est conçu pour faire fonctionner les applications d’IA, dans des domaines variés, qu’il s’agisse de la robotique, des véhicules autonomes, des assistants numériques ou de l’agriculture de précision. Si ces puces neuromorphiques, largement inspirées des systèmes neuronaux biologiques, sont devenues un enjeu technique et économique considérable, c’est parce qu’elles peuvent combiner rapidité, mémoire et sobriété énergétique, ce dernier avantage devenant décisif, dans un contexte de réduction drastique des émissions de CO2 et de lutte contre le réchauffement climatique. On le sait, l’architecture actuelle des ordinateurs sépare physiquement le processeur et la mémoire où sont stockées les données. Avec l’informatique neuromorphique, les données sont traitées et stockées dans une seule puce. Ces puces neuromorphiques sont au cœur de plusieurs ambitieux projets de recherche européens, comme NeurONN, qui vise à développer des architectures basées sur des réseaux de neurones oscillatoires. Face aux limites physiques de la loi de Moore, l’informatique neuromorphique ouvre la voie à des architectures de puces plus puissantes et surtout bien plus économes en énergie. Le neuromorphisme s’inspire en effet du fonctionnement des réseaux de neurones biologiques en misant sur des architectures parallèles, et non séquentielles, ce qui autorise le traitement simultané de multiples opérations. Comme le souligne Fabio Pavanello, chercheur en photonique à l’IMEP-LAHC, « Les architectures traditionnelles présentent des limitations en termes d’efficacité énergétique et de communication entre la mémoire et l es processeurs. En revanche, avec une puce neuromorphique basée sur une technologie photonique, la latence ne serait limitée qu’à la vitesse de la lumière ». Le programme européen NimbleAI vise pour sa part à développer une architecture anthropomorphique intégrée, capable de percevoir son environnement en 3D, tout en étant 50 fois plus rapide et 100 fois plus sobre en consommation d'énergie. Il y a deux ans, le réseau de neurones DishBrain, mis au point par l’University College de Londres et l’Université australienne de Monash a fait sensation en apprenant à jouer au jeu vidéo Pong en seulement quelques minutes. Cette puce semi-biologique associe des neurones cultivés dans une boîte de pétri combinés à une puce électronique en silicium. Dans certains domaines, elle a montré qu'elle pouvait surclasser les meilleures puces d'IA sur silicium et ouvre la voie vers une intelligence artificielle hybride, combinant composants électroniques et biologiques. « Ce composant hybride exploite la puissance de calcul de cellules biologiques et promet de larges perspectives d’application telles que la robotique, l’automatisation avancée, les interfaces cerveau-machine ou encore la découverte de nouveaux médicaments » (Voi r Monash University). En mars dernier, une étude du cabinet Goldman Sachs créait l'événement en prévoyant que « jusqu’à 300 millions d’emplois à temps plein seront automatisés à travers le monde, en raison de la dernière vague d’intelligences artificielles ». Selon cette étude deux tiers des emplois actuels seront touchés à divers degrés par l'automatisation. IDC nous apprend pour sa part que le marché mondial de l’intelligence artificielle devrait passer de 350 milliards de dollars en 2022 à 2000 milliards de dollars en 2030, et devrait créer 11,6 millions d’emplois additionnels. Selon Bloomberg, le seul marché de l’IA générative, qui pesait près de 40 milliards de dollars en 2022, devrait atteindre les 1 300 milliards de dollars d’ici 2032. Bien que ce point central fasse l’objet de vifs débats entre économistes, il semble que cette diffusion des outils d’IA générative dans l’ensemble de la société obéisse au processus de destruction créatrice d’emplois prévu par Schumpeter. C’est en tout cas ce que prévoit une étude de l’Organisation Mondiale du Travail publiée en août dernier et qui souligne que la première conséquence de cette nouvelle technologie ne se traduira probablement pas par la destruction massive d'emplois (seuls 5,5 % des emplois dans les pays à revenu élevé seraient directement menacés par l’automatisation), mais plutôt par des changements potentiels dans la qualité des emplois, notamment l'intensité du travail et l'autonomie (Voir OIT). Reste la question fondamentale récurrente, aux frontières de la science et de la philosophie : l’IA est-elle en mesure de bientôt égaler, voire surpasser l’intelligence humaine. Certains responsables économiques, comme Elon Musk, mais aussi certains scientifiques le croient. En mars dernier, Elon Musk et des centaines d’experts mondiaux ont signé un appel à une pause de six mois dans la recherche sur les intelligences artificielles en évoquant « des risques majeurs pour l’humanité » (Voir Future of Life). Dans cette pétition, ils réclament un moratoire jusqu’à la mise en place d’instances indépendantes de contrôle et de surveillance des systèmes d’IA, susceptibles de permettre de distinguer le réel de lR 17;artificiel et de gérer les « perturbations économiques et politiques dramatiques que l’IA peut provoquer ». On ne peut écarter d’un revers de main ces inquiétudes légitimes et il est effectivement souhaitable de renforcer les instances et procédures de contrôle afin de prévenir, autant qu’il est possible, les utilisations humaines malveillantes ou irresponsables de ces nouveaux outils d’IA générative. Mais de là à imaginer que l’IA va bientôt supplanter l’intelligence humaine et échapper à ses créateurs pour poursuivre ses propres buts, il y a un grand pas que beaucoup d’éminents scientifiques se refusent à franchir. Dans son livre "Parole de Machines", le directeur de recherche au CEA-Saclay Alexei Grinbaum souligne qu’une IA ne sait pas qu'elle sait et n'a pas conscience d'avoir conscience. Son apprentissage ne produit pas de sens et l’IA est par conséquent incapable de comprendre le sens et la dimension ambigu&eu ml; des mots. Alexei Grinbaum pense que l’objectif de l’IA n’est pas de simuler l’intelligence humaine, mais, ce qui est beaucoup plus intéressant, de découvrir de nouveaux moyens d’aller du même point de départ au même point d’arrivée que le cerveau humain, sans emprunter les mêmes voies… Le Professeur de psychologie à l'université de Paris, Olivier Houdé, est également convaincu que la perspective d’une IA égalant en tout point l’intelligence humaine relève largement de l’imposture scientifique. Depuis 30 ans, Olivier Houdé réexamine et élargit la théorie cognitive de Jean Piaget. Ses travaux, mondialement reconnus, montrent que cette conception de l’intelligence linéaire de Piaget est incomplète et ne rend pas compte de la complexité de la genèse de l’intelligence humaine. Selon Olivier Houdé, les automatismes et la pensée réflexive coexistent dans le cerveau humain, dès la naissance. L’intelligence, selon lui, consisterait à arbitrer, c’est-à-dire à déterminer les situations dans lesquelles la réflexion, grâce à un processus d’inhibition de mie ux en mieux contrôlé, doit se substituer à la pensée intuitive et spontanée. Pour Olivier Houdé, il n’y a aucune chance que l’IA dépasse dans un avenir prévisible l’intelligence humaine, car cette dernière résulte d’un mécanisme extraordinairement fin et complexe qui articule le système heuristique, c’est-à-dire une pensée intuitive et rapide, le système algorithmique, c’est-à-dire une pensée logico-mathématique plus lente et enfin le système inhibiteur qui va décider à quel moment arbitrer entre les deux systèmes précédents… Olivier Houdé est, sur cette question capitale de la singularité de l’intelligence humaine, en accord avec le grand psychologue américaine Howard Gardner qui a révolutionné la conception de l’intelligence avec sa théorie, désormais célèbre, des intelligences multiples (1983), qui dist ingue pas moins de huit formes interdépendantes d’intelligence, réparties en quatre types : les intelligences d’actions (interpersonnelle et intrapersonnelle), scolaires (linguistique et logico-mathématique), environnementales (naturaliste et musicale) et méthodologiques (visuo-spatiale et kinesthésique). Les outils d’IA n'ayant, par nature, pas de substrat corporel (même s’ils peuvent recourir à des puces intégrant des éléments biologiques), ils sont, pour ces éminents scientifiques, incapables de ressentir le monde qui les entoure et d’éprouver des sensations et des émotions proprement humaines. L’intelligence et la créativité, sous ses différentes formes, étant, chez l’homme, indissociables de l’affectivité et des émotions, ces scientifiques, rejoignant ici la pensée de Spinoza, se disent convaincus que l’IA générative, quelle que soit sa puissance de calcul, ne restera qu’une froide et pâle (mais néanmoins très utile et très efficace) copie du cerceau humain et n’atteindra jamais, avec les outils actuels, l’extraordinaire capacité humaine à créer des conce pts nouveaux, faute de sentiments et de conscience réflexive… Il n’en demeure pas moins vrai que la prochaine génération d’IA générative et universelle qui arrivera sur le marché d’ici seulement deux ou trois ans, et qui s’appuiera en outre sur des puces neuromorphiques bien plus puissantes qu’aujourd’hui, va rapidement devenir indispensable et s’imposer dans tous les aspects de notre vie, grâce à son incroyable capacité de compréhension et de dialogue, par l’écriture, la parole et l’image, avec les êtres humains. Ces IA génératives et universelles vont se fondre partout et bouleverser nos économies, nos sociétés et notre rapport au monde à un point que nous avons encore du mal à imaginer. C’est pourquoi nous devons dès à présent ouvrir un large débat démocratique sur les finalités de cette technologie et mettre en plac e des cadres éthiques et réglementaires suffisamment solides pour prévenir les possibles dérives liées à des utilisations inappropriées, manipulatoires ou criminelles de ces outils d’une prodigieuse puissance… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | | | Les cellules photovoltaïques à pérovskite (PSC) sont à la pointe de l’innovation dans le secteur de l’énergie solaire. Elles suscitent un grand intérêt en raison de leur rendement de conversion de puissance et de leur fabrication rentable. Mais avant de pouvoir commercialiser les PSC, il faudrait parvenir à la fois à un rendement élevé et à une stabilité à long terme, notamment dans des conditions environnementales difficiles. La solution réside dans l’interaction entre les couches de PSC, qui s’est avérée être une arme à double tranchant. Les couches peuvent améliorer les performances des cellules mais aussi les dégrader trop rapidement pour une utilisation régulière dans la vie quotidienne. Grâce à leur collaboration, les laboratoires de Michael Grätzel à l’EPFL et d’Edward Sargent à l’Université Northwestern ont accompli une avancée majeure en concevant des PSC d’une stabilité record et d’un rendement de conversion de puissance supérieur à 25 %, relevant ainsi deux des défis les plus urgents dans le secteur de l’énergie solaire. Les chercheuses et chercheurs se sont intéressés à la conception de PSC inversées, qui se sont déjà révélées prometteuses en termes de stabilité opérationnelle. Ils ont inséré une « monocouche conforme auto-assemblée sur des substrats texturés », c’est-à-dire une couche unique de molécules qui recouvre spontanément et uniformément la surface irrégulière d’un substrat texturé. Cette nouvelle conception élimine le problème d’"agglomération moléculaire", qui survient lorsque les molécules s’agglutinent au lieu de se répartir uniformément. Lorsque ce phénomène se produit sur les surfaces texturées des cellules photovoltaïques, les performances de celles-ci peuvent être sensiblement altérées. Pour éviter cela, les chercheuses et chercheurs ont introduit une molécule spéciale appelée acide 3-mercaptopropionique (3-MPA) dans la monocouche auto-assemblée (SAM) des cellules photovoltaïques, formée d’une couche moléculaire d’acides phosphoniques remplacés par du carbazole, qui extrait sélectivement les porteurs de charge positive ("trous") produits sous l’effet de l’illumination sur les films de pérovskite. Cependant, cette fonction est compromise par l’agrégation des molécules PAC. L’ajout de la molécule 3-MPA améliore le contact entre le matériau pérovskite et le substrat texturé de la cellule photovoltaïque afin d’optimiser les performances et la stabilité, ce qui permet de désagréger les grappes moléculaires de carbazole et d’assurer une répartition plus homogène des molécules dans la monocouche auto-assemblée. Grâce à cet ajout, les molécules sur la surface de la cellule photovoltaïque se répartissent de manière plus uniforme, ce qui permet d’éviter les amas problématiques et d’améliorer la stabilité et le rendement des PSC. La nouvelle conception a permis d’améliorer l’absorption de la lumière tout en minimisant les pertes d’énergie à l’interface entre les couches, ce qui a entraîné un rendement de conversion de puissance impressionnant de 25,3 %, chiffre mesuré en laboratoire. En termes de stabilité, les PSC inversées ont présenté une résistance remarquable. Le dispositif a conservé 95 % de ses performances maximales même après avoir été soumis à des conditions sévères – une température de 65°C et une humidité relative de 50 % pendant plus de 1 000 heures. Un tel niveau de stabilité, associé à un rendement aussi élevé, est sans précédent dans le domaine des PSC. Cette conception révolutionnaire représente une avancée majeure dans la commercialisation des PSC. L’élimination des problèmes de rendement et de stabilité, combinée à des coûts de fabrication inférieurs à ceux des cellules photovoltaïques actuelles, peut aboutir à un déploiement à grande échelle. Ce nouveau procédé peut également aller au-delà des cellules photovoltaïques et profiter à d’autres dispositifs optoélectroniques nécessitant une gestion efficace de la lumière, tels que les LED et les photodétecteurs. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Une société américaine, Helion, fondée en 2013 à Everett, dans l’État de Washington, ambitionne d'être la première société à commercialiser la fusion nucléaire. Sa conception est basée sur trois orientations principales. Tout d’abord il s’agit d’un système de fusion pulsé. Pour rappel, il existe deux grandes classes de réacteurs de fusion : d’une part ceux, type tokamak comme ITER, où la réaction se produit de manière permanente dans un tore rotatif de plasma, ou type impulsionnel comme le Laser Mégajoule, où les réactions se produisent de manière discontinue, par exemple, au centre de faisceaux laser. Helion a choisi cette seconde approche, l’estimant plus favorable pour un réacteur de production d’énergie. La conversion de puissance repose sur la conversion directe de l’énergie générée par la réaction de fusion en énergie électrique, sur le même principe que le freinage régénératif dans les véhicules électriques. Cette conversion directe est plus efficace en termes de rendement, et aussi moins complexe à mettre en œuvre, et donc moins coûteuse (en principe), qu’un circuit de conversion basé sur des cycles thermodynamiques comme dans les centrales thermiques. La fusion d’Helion est basée sur les combustibles Deutérium et Hélium-3. La fusion de ces deux éléments permet de produire des particules chargées électriquement, lesquelles sont émises avec une très grande vitesse par la réaction de fusion. Des particules chargées à grande vitesse sont justement ce dont a besoin un système de conversion directe de leur mouvement (énergie cinétique) en électricité (énergie électrique). Par ailleurs, cette réaction produit nettement moins de neutrons que d’autres réactions, ce qui réduit l’impact sur les structures du réacteur et les besoins de radioprotection. Helion a déjà construit six prototypes fonctionnels de réacteur à fusion nucléaire et son dernier réacteur, dénommé Trenta, a permis à la société d’être la première entreprise privée de fusion au monde à atteindre des températures de plasma de 100 millions de degrés. Elle construit actuellement Polaris, son septième prototype, dont l’objectif est d’être le premier réacteur à démontrer la production d’électricité à partir de la fusion. Depuis sa fondation, la société a levé 577 millions de dollars de financement. Parmi eux, citons le partenariat avec Nucor Corporation, un géant de la sidérurgie, partenariat qui inclut un investissement de Nucor dans la société. Il a été annoncé récemment, le 27 septembre 2023, et vise à développer une centrale électrique à fusion de 500 MWe, destinée à alimenter une aciérie avec une électricité produite sans carbone. Article rédigé par Georges Simmonds pour RT Flash Power Technology | | | |
| Jean-Luc Stanek n’hésite pas à parler de "rupture technologique" dans le monde des énergies renouvelables. Président fondateur de la start-up Hace, abréviation de Hydro Air Concept Energy, l’inventeur girondin vient de prouver, après trois mois de test en mer, que son houlomoteur est capable de produire de l’électricité avec l’énergie de la houle. Même avec une onde de quelques centimètres, la machine en forme de ponton flottant génère de l’électricité. « Tout le monde, dans l’univers du houlomoteur, a toujours voulu valoriser l’énergie des grosses vagues. Nous, on fait l’inverse. Notre technologie fonctionne avec des houles très faibles qui sont les plus fréquentes, tout comme avec des vagues chaotiques. C’est l’énorme différence car le gisement est inépuisable », présente Jean-Luc Stanek, président fondateur de la start-up Hace, dans ses bureaux de Martillac. La turbine ultra-performante a été mise au point par les ingénieurs du laboratoire de l’Ensam de Bordeaux. Sûr de sa technologie, l’ancien dentiste passé par Santé navale s’est mué en spécialiste des énergies marines. Il assure que son invention multirécompensée supplante toutes les énergies renouvelables, à commencer par l’éolien et le solaire. Que ce soit en termes de coût, estimé à moins de 30 euros le MWh, de bilan carbone et de garantie de production avec un facteur de charge compris entre 50 % et 92 % selon les conditions météo. Mais aussi, et ce n’est pas un détail, en termes de pollution visuelle. Avec une hauteur de 2,5 m au-dessus de l’eau, le houlomoteur Hace est « invisible au large sur la ligne d’horizon ». Forts de ces résultats, Jean-Luc Stanek et ses solides associés viennent de lancer une nouvelle levée de fonds d’environ 20 millions d’euros pour passer du stade expérimental au stade industriel. L’objectif est de financer une première unité de houlomoteur à l’échelle standard d’une puissance nominale de 1 MW et de faire sortir de terre une première usine pour répondre aux précommandes de clients qui croient au potentiel de la machine. Le système Hace, pensé il y a plus d’une quinzaine d’années par Jean-Luc Stanek, est basé sur le principe élémentaire de la poussée d’Archimède. L’énergie de la houle est ainsi récupérée verticalement, dans des colonnes d’air de 2 mètres de haut. Ces colonnes oscillantes sont mises sous pression par le clapot de la surface de l’eau qui monte et descend à l’intérieur, un peu comme une pompe à vélo en action. À chaque poussée, l’air comprimé dans les colonnes s’échappe par des soupapes unidirectionnelles et vient mettre en surpression un grand caisson au-dessus. Cet air comprimé actionne des turbines ultrasensibles qui produisent de l’électricité. Le mouvement ne s’arrête quasiment jamais. La théorie avait déjà été validée en 2018 lors d’une première expérimentation au large de La Rochelle. Hélas, le prototype qui avait mobilisé prés de 1 million d’euros de financement (dont 190 000 euros de la Région) avait fini au fond de l’océan après avoir été percuté par un bateau. Mais déjà, à l’époque, l’expérience avait montré que les soupapes s’actionnaient avec 20 centimètres de houle seulement. Cinq années plus tard, le démonstrateur mis à l’eau en avril au large du Croisic a permis « de valider le principe de fonctionnement général du système Hace, tant sur la production d’électricité que sur son comportement en mer et sa résistance après avoir essuyé deux tempêtes & raquo;. Ce "mini Hace" constitué de deux caissons de 12 mètres disposés en T a été construit à l’Eurêkapole de la Communauté de communes Montesquieu, à Martillac (33), siège de l’entreprise. Le prototype a été équipé de nouvelles turbines ultrasensibles mises au point par le laboratoire de l’école d’ingénieur Arts et Métiers de Bordeaux (Ensam). « Nos tests sur banc d’essai ont battu tous les records. Notre turbine produit de l’électricité à partir de 2 millibars de pression seulement. Elle permet de valoriser l’énergie produite par la moindre houle », se félicite Jean-Luc Stanek. L’objectif est maintenant de construire un houlomoteur de taille standard, soit 210 mètres de long sur 6 mètres de large, d’une puissance nominale de 1 MW. Une seule unité serait en mesure de produire entre 4 et 8 GWh par an, selon la zone géographique. Hace nourrit aussi de grands espoirs dans un projet de production d’hydrogène vert en associant son houlomoteur à un électrolyseur. La station permettrait d’approvisionner les bateaux à hydrogène directement en mer. Après des années de recherche et développement, l’entreprise de Martillac ne cache pas son ambition de devenir « un acteur majeur sur le marché mondial de l’énergie décarbonée », vise Jean-Luc Stanek. Article rédigé par Georges Simmonds pour RT Flash Sud Ouest | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Une étude britannique réalisée par le centre de surveillance de l'Antarctique de Cambridge vient de montrer que l’Antarctique fond de manière irréversible. Même en limitant le réchauffement de la planète à 1,5 degré, comme le prévoit l’Accord de Paris, la banquise fondra dans cette partie du globe. Le postulat de base est clair : « Nous constatons qu’un réchauffement rapide des océans, environ trois fois plus rapide que le taux historique, est susceptible de se produire au cours du XXIe siècle, avec des augmentations généralisées de la fonte des plateaux glaciaires, y compris dans des régions cruciales pour la stabilité de la calotte glaciaire », arguent les scientifiques dans cette étude. Pour mener à bien ces travaux, les scientifiques ont étudié l’état des glaciers en Antarc tique au niveau de la mer d’Amundsen. Ils ont établi plusieurs projections : le scénario le plus pessimiste en matière d’utilisation des combustibles fossiles, mais aussi le scénario le plus optimiste, ainsi que les scénarios intermédiaires. Les auteurs de l'étude rappellent que limiter l'augmentation de la température mondiale à 1,5°C est désormais considéré comme improbable compte tenu des niveaux actuels de réchauffement. Ainsi, ils sont parvenus à la conclusion que tous les scénarios montrent un réchauffement futur important et généralisé de la mer d’Amundsen et une fonte accrue de ses plateaux de glace. Même en respectant « les objectifs les plus ambitieux de l’Accord de Paris », et avec « l’atténuation des gaz à effet de serre », cela n’aurait qu’un effet limité pour prévenir le réchauffement des océans. Celui-ci pourrait donc conduire « à l’effondrement de l’inlandsis de l’Antarctique occidental ». Comprendre : la fonte de la banquise en Antarctique. « Nous constatons qu e les conditions océaniques de la mer d'Amundsen en 2100 pourraient être jusqu'à 2°C plus chaudes que les températures préindustrielles. Pour les masses d'eau de l'Antarctique, une augmentation de 2°C est frappante ». Les scientifiques rappellent que cette étude ne remet pas en cause l’importance d’atténuer et de limiter le réchauffement climatique. « Cependant, l’adaptation devrait maintenant être considérée plus sérieusement comme une priorité dans la réponse mondiale à l’élévation du niveau de la mer. […] Les décideurs politiques doivent se préparer à une élévation du niveau de la mer de plusieurs mètres au cours des siècles à venir. La variabilité interne du climat, que nous ne pouvons ni prévoir ni contrôler, pourrait être le facteur décisif du taux de perte de glace au cours de cette période », déclarent-ils. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des scientifiques ont identifié les deux premiers gènes impliqués dans le phénomène de Raynaud, cette maladie héréditaire affectant la circulation sanguine et responsable par exemple d’une coloration blanche des doigts quand la température s’abaisse. Une avancée qui pourrait à terme ouvrir des perspectives thérapeutiques vraiment spécifiques de la pathologie. Cette affection héréditaire chronique et douloureuse affectant 2 à 5 % de la population, est responsable par exemple d’une coloration blanche des doigts quand la température (air, eau) s'abaisse. Ces chercheurs de la Queen Mary University de Londres (Royaume-Uni) et de l’hôpital de la Charité de Berlin (Allemagne) ont analysé les dossiers médicaux électroniques de la UK Biobank, une base de données biomédicales forte d'un demi-million de participants, ce qui leur a permis d’identifier plus de 5000 patients atteints de la maladie de Raynaud dite primitive. Au final, le travail a pu mettre en avant deux gènes. D'une part le ADRA2A, un récepteur de l'adrénaline classique du stress provoquant la contraction des petits vaisseaux sanguins. Ce récepteur « agirait de manière combinée avec un deuxième gène, le facteur de transcription IRX1, capable lui de réguler la capacité des vaisseaux sanguins à se dilater », explique l’un des chercheurs impliqués, Maik Pietzner, dans le communiqué de l’universit é. En fait, selon les hypothèses des scientifiques, une cascade d’événements est sans doute à l'origine du phénomène de constriction des vaisseaux. D’une part, une hyperactivité d’ADRA2 sans doute associée à une augmentation de production d’IRX1, sans compter d’autres gènes restant eux à identifier, ces actions combinées empêchant au final la circulation du flux sanguin et provoquant le spasme des vaisseaux. Ces découvertes ouvrent la voie à de nouveaux traitements, plus efficaces, plus ciblés et moins agressifs. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Des souris séparées de leur mère à la naissance transmettent la mémoire biologique de l’événement anxiogène aux deux générations suivantes, mais un simple médicament fait disparaître les symptômes associés à cette adversité, montrent les travaux de neuroscientifiques montréalais publiés. Les événements qui se produisent tôt dans la vie peuvent avoir des conséquences longtemps et forger qui nous devenons plus tard, souligne Yves De Koninck, le directeur scientifique du Centre de recherche CERVO, associé à l’Université Laval, et l’un des principaux auteurs de l’étude, avec le psychiatre et neurobiologiste Marco Battaglia. En 2003, les travaux des chercheurs Moshe Szyf et Michael Meaney, du Centre de recherche de l’Institut Douglas, montraient que de jeunes rats qui avaient été suffisamment léchés par leur mère étaient, à l’âge adulte, beaucoup plus calmes que ceux qui avaient été moins choyés. Ces chercheurs avaient aussi montré que l’administration de méthionine, un acide aminé, dans le cerveau des rats choyés modifiait l’expression de certains récepteurs, ce qui menait à une hausse de la production d’hormones de stress. Ainsi, les rongeurs calmes devenaient beaucoup plus agités. Une étude publiée en 2021 par certains auteurs participant à ces nouveaux travaux avait montré que des souris séparées de leur mère et soignées à plusieurs reprises par d’autres souris, au début de leur vie, présentaient une expression accrue d'ASIC1. Ce gène est important puisqu’il aide à détecter les changements de pH dans le système nerveux. Les récents travaux de l’équipe du CERVO vont encore plus loin, toujours chez la souris, mais aussi chez l’humain. Chez le rongeur, les chercheurs ont séparé une première génération de souriceaux de leur mère, en les associant à des mères adoptives toutes les 24 heures pendant quatre jours au cours de la première semaine de vie. Par la suite, ils ont remis les bébés dans des conditions d'élevage normales. Ils ont ensuite permis aux souris exposées à l’adversité au début de la vie de se reproduire sur deux générations. Résultat ? Les lignées de rongeurs exposées à des difficultés tôt dans leur vie étaient plus sensibles à la douleur que les lignées élevées normalement. En outre, l'exposition à un air enrichi de 6 % de CO2 provoquait l'hyperventi lation (symptôme de panique) chez les souris exposées à de l’adversité dans leur jeune âge ainsi qu'à leur progéniture. Les analyses moléculaires montrent que l'expression de certains gènes sensibles au pH – dont ASIC1 – est renforcée dans les lignées exposées à de l’adversité, en particulier dans des régions du cerveau responsables des processus sensoriels et de la douleur. Les chercheurs en viennent au même résultat chez l’humain, mais avec des balises moins faciles à contrôler. On a noté l’histoire familiale des participants, et ceux qui ont vécu de l’adversité lorsqu’ils étaient enfants étaient aussi plus enclins, une fois adultes, à une sensibilité accrue à la douleur ou à l’anxiété, indique M. De Koninck. Il est donc clair pour les chercheurs que l’adversité tôt dans la vie modifie les fonctions moléculaires du cerveau chez l’humain, produisant des mémoires biologiques qui peuvent se manifester par des réactions d'anxiété et une sensibilité amplifiée à la douleur à l'âge adulte. Le fait que l’hyperventilation en réponse à l'hypercapnie (excès de gaz carbonique dans le sang) et la sensibilité à la douleur soient observables sur trois générations montre aussi une composante épigénétique. L’épigénétique correspond à des variations dans l’activité des gènes induites par l’environnement et les expériences d’une personne qui peuvent se transmettre d’une génération à l’autre. Il existe donc une mémoire des événements qui est passée de génération en génération, affirme le professeur Yves De Koninck. Le professeur De Koninck souligne un détail très important révélé par ces travaux : il y a des points communs entre les chemins empruntés par la douleur et l’asphyxie, quant à la modulation de leurs mécanismes de sensibilisation. Un détail déterminant, puisque ces travaux montrent aussi que les symptômes associés à la modification moléculaire peuvent être soulagés dans les trois générations de souris grâce à l'inhalation d'une molécule approuvée par l’Agence américaine des médicaments (FDA). Il s’agit de l’amiloride, qui est déjà utilisée dans d’autres traitements, notamment comme diurétique et contre l’hypertension. Lorsqu’elle est pulvérisée dans les muqueuses nasales, elle pénètre plus rapidement dans le cerveau que lorsqu’elle est injectée par voie intraveineuse. Elle inhibe ASIC1 et inverse ses effets. On a ici une avenue thérapeutique intéressante pour l'anxiété et les troubles de panique, un low-hanging fruit, comme disent les Anglais, mentionne Yves De Koninck. Le professeur De Koninck se réjouit également des résultats obtenus sur les trois générations de souris et d’humains avec le traitement à l’amiloride. Quelqu'un qui a hérité d’une plus grande vulnérabilité aux troubles anxieux en raison de son histoire familiale répond aussi bien au traitement qu’une personne qui a vécu directement des traumatismes dans sa jeunesse. Le traitement serait donc applicable à une grande partie de la population. Article rédigé par Georges Simmonds pour RT Flash Science | | | |
| Le fait de suivre un régime méditerranéen, faire régulièrement du sport et réduire les calories, a entraîné une diminution de la graisse abdominale chez les adultes en surpoids, atteints d’obésité et du syndrome métabolique. « Une intervention de perte de poids sur le mode de vie affecte-t-elle les changements de composition corporelle ? » C’est la question que se sont récemment posée des scientifiques espagnols. Pour en avoir le cœur net, ils ont réalisé une étude portant sur 1.521 personnes en surpoids, souffrant d’obésité et du syndrome métabolique, soit un ensemble de troubles qui signalent un risque accru de diabète, de maladies cardiaques et d’accidents vasculaires cérébraux. Pendant trois ans, un groupe de patients a suivi un régime méditerranéen mais aussi limité leur consommation d'aliments transformés, de viandes, de beurre, de sucre ajouté et mangé davantage de céréales complètes. Cependant, les recommandations ne s'arrêtaient pas à l'alimentation. Ils étaient également encouragés à augmenter progressivement leur activité physique, avec pour objectif de marcher 45 minutes par jour ou plus six jours par semaine, ainsi que de faire des exercices pour améliorer leur force. Un deuxième groupe de personnes a suivi un régime méditerranéen sans restriction calorique ni modification de l’activité physique. D’après les résultats, les volontaires qui perdaient des calories et faisaient de l'exercice régulièrement, tout en suivant un régime méditerranéen, ont signalé une diminution de la graisse abdominale et totale. En revanche, les adultes du deuxième groupe n’ont constaté aucun changement en ce qui concerne la graisse abdominale. Selon l’équipe, les membres des deux groupes ont gagné une certaine masse musculaire maigre, mais les personnes ayant fait du sport et respecté une restriction calorique ont perdu plus de graisse que de muscle. « Si vous adoptez une alimentation de haute qualité, faites l'exercice et réduisez les calories, vous perdrez plus de graisse corporelle, en particulier la graisse plus profonde plus dangereuse autour de la région abdominale autour de vos organes, et préservez plus de muscle. Ces efforts semblent porter leurs fruits au bout de trois ans », a déclaré Cewin Chao, directeur des services de nutrition clinique au Montefiore Health System à New York. Article rédigé par Georges Simmonds pour RT Flash Medical Xpress | | | |
| AstraZeneca a demandé aux autorités sanitaires américaines l’autorisation de commercialiser un vaccin anti-grippal pouvant s’administrer soi-même, à la maison, sans médecin : il s’agit d’un spray nasal. Il est déjà vendu dans le monde sous cette forme, mais l’acte doit être réalisé par un professionnel agréé. Le vaccin FluMist contre la grippe saisonnière, du laboratoire AstraZeneca, a une spécificité : il s’administre par voie nasale, comme un simple spray. Celui-ci existe d’ores et déjà tel quel aux États-Unis, mais, comme les autres vaccins, l’acte doit être réalisé par un médecin professionnel. Dans une demande auprès des autorités de santé américaines, l’entreprise vient de demander l’autorisation pour une auto-administration. Si ce vaccin autoadministré est approuvé, et bien que limité au sol américain pour l’heure, ce serait la première fois qu’un vaccin pourrait être auto-administré, en toute autonomie, à la maison. Ce vaccin anti-grippal concerne un public large : les personnes entre 2 à 49 ans. En cas d’approbation, l’auto-administration ne viserait toutefois que les personnes majeures, qui pourraient cependant procéder à la vaccination des mineurs du foyer. Selon le laboratoire pharmaceutique, il s’agirait de tirer parti de la facilité d’usage du spray pour augmenter les taux de vaccination aux États-Unis. Les taux de vaccination des enfants et des adultes de moins de 50 ans ont diminué au cours de la saison grippale 2022-2023, soulignant la nécessité de solutions plus accessibles. La possibilité pour les individus et les parents de choisir l’endroit où administrer un vaccin antigrippal sans injection pourrait contribuer à améliorer l’accès et, par conséquent, les taux de vaccination, et bénéficier grandement aux personnes les plus touchées par cette maladie respiratoire grave et contagieuse. La FDA - l’autorité de santé américaine - rendra sa décision début 2024 et, en cas d’approbation, qui semble probable, AstraZeneca entend commercialiser ce format de vaccin dès la saison grippale 2024-2025 aux États-Unis. En France, le vaccin antigrippal par spray nasal d’AstraZeneca est commercialisé sous le nom de Fluenz Tetra. Celui-ci a été autorisé dans l’hexagone en 2020, mais il reste faiblement utilisé dans les campagnes vaccinales. En février 2023, la Haute autorité de santé a émis une « recommandation préférentielle » pour ce spray nasal pour les plus jeunes, les 2 à 17 ans. « Ce mode d’administration plus simple (pulvérisation dans le nez) devrait en effet être mieux accepté par les enfants et leurs parents », estime l’autorité de santé. Article rédigé par Georges Simmonds pour RT Flash Reuters | | | |
| D’après l’OMS, environ 10 à 15 % des personnes infectées par le SARS-CoV-2 présentent des symptômes persistants durant des mois, voire des années - dans un tel cas, on parle alors de COVID long. Bien que plus de 200 symptômes différents aient été signalés par les patients, ceux couramment observés sont la fatigue chronique, le brouillard cérébral, des pertes de mémoire et divers autres troubles neurocognitifs. Cependant, « de nombreux aspects de la biologie fondamentale qui sous-tend le COVID long restent flous et en conséquence, nous manquons d’outils efficaces pour le diagnostic et le traitement de la maladie », explique Maayan Levy, professeur adjoint de microbiologie à l’Université de Pennsylvanie et auteur correspondant de la nouvelle étude. En effet, l’étiologie moléculaire de la plupart des syndromes post-viraux, dont le COVID long, demeure en grande partie mystérieuse. Plusieurs hypothèses ont été suggérées pour expliquer les symptômes persistants, telles que la présence de réservoirs viraux post-infection, l’inflammation chronique, la présence d’auto-anticorps, l’agrégation plaquettaire, le dysfonctionnement du système nerveux autonome, … D’un autre côté, les séquelles se manifestent de manière si hétérogène que l’établissement d’un diagnostic objectif et la prescription de traitements appropriés sont difficiles. La nouvelle étude suggère que quatre de ces hypothèses (persistance virale, inflammation chronique, hypercoagulabilité et dysfonctionnement autonome) pourraient être interconnectées par le biais d’une seule et même voie : une baisse anormale des niveaux de sérotonine. Dans le cadre de cette nouvelle recherche, une enquête métabolomique a été effectuée en analysant notamment des échantillons de sang et de selles de 58 patients COVID long, présentant des symptômes persistants 3 à 22 mois après l’infection. Les résultats ont été comparés à ceux obtenus de 60 personnes souffrant de COVID aigu et à ceux de 30 autres patients entièrement rétablis. Parmi les métabolites fortement modifiés chez le premier groupe figuraient les acides aminés essentiels et leurs dérivés. Il a aussi été constaté que les niveaux de sérotonine étaient anormalement bas chez ces patients, qui présentaient également des traces du virus dans leurs selles, même plusieurs mois après l’infection (ce qui indique une persistance virale intestinale). En effectuant des analyses sur des modèles animaux et des organoïdes, les chercheurs ont constaté que la présence d’ARN viral stimulait la sécrétion d’interférons. Ces protéines inflammatoires réduisent l’absorption du tryptophane, un acide aminé présent dans le tractus gastrointestinal et précurseur de divers neurotransmetteurs, dont la sérotonine. Ce constat concorde avec les niveaux réduits d’acides aminés et de sérotonine observés chez les patients COVID long. En d’autres termes, lorsque l’absorption du tryptophane est réduite par l’infection virale persistante, le taux de sérotonine diminue. Cette diminution ainsi que l’inflammation persistante perturbent également la sécrétion de plaquettes, impliquées dans la coagulation sanguine et la cicatrisation. La sérotonine joue un rôle clé dans la régulation de la mémoire, du sommeil, de la digestion, de la cicatrisation et dans d’autres fonctions homéostasiques. Il s’agit également d’un important régulateur du nerf vague, assurant une fonction de communication majeure entre le cerveau et d’autres organes. Il soutient par exemple la sensibilité du voile et de la base de la langue, du pharynx, du larynx et de l’épiglotte. Ces différentes corrélations suggèrent que la réduction des niveaux de ce neurotransmetteur pourrait être impliquée dans divers symptômes persistants du COVID long, tels que la perte de mémoire, les perturbations gastro-intestinales, voire l’intolérance orthostatique. Afin de corroborer leurs observations, les experts ont cherché à déterminer si la restauration du tryptophane ou de la sérotonine chez les patients présentant des carences pourrait atténuer les symptômes du COVID long. Les essais sur des modèles animaux ont montré que la restauration de la sérotonine améliorait la mémoire. Parmi les traitements testés figuraient notamment des inhibiteurs sélectifs du recaptage de la sérotonine (ISRS), habituellement utilisés comme antidépresseurs. Des études antérieures ont d’ailleurs déjà suggéré le potentiel des ISRS pour le traitement des séquelles post-aiguës du COVID. De plus, étant donné que le tryptophane est un précurseur de plusieurs neurotransmetteurs, une stratégie thérapeutique axée sur cet acide aminé pourrait non seulement atténuer les symptômes neurologiques, mais également ceux impliquant d’autres fonctions métaboliques. Il active par exemple la production de la niacine, qui soutient le métabolisme énergétique, et la mélatonine, qui régule le sommeil et le rythme circadien. Article rédigé par Georges Simmonds pour RT Flash Cell | | | |
| Une étude conduite par la Professeure Ashley Gearhardt (Université du Michigan) s’est intéressée au potentiel addictif des aliments dits « ultra-transformés », c'est-à-dire des aliments qui sont fabriqués selon des procédés industriels, à partir d’aliments naturels ou peu transformés auxquels sont ajoutés des produits industriels et des additifs comme des émulsifiants, exhausteurs de goût ou encore antioxydants. Si l’addiction à la nourriture n’est pas répertoriée dans le DSM-5 pour les troubles mentaux, l’échelle de la dépendance alimentaire de Yale (YFAS) a été mise au point pour évaluer la dépendance à la nourriture, selon les critères de dépendance aux substances du DSM-5. Les chercheurs ont passé en revue 281 études réalisées dans 36 pays différents s’appuyant sur l’YFAS. Selon leurs résultats, 14 % des adultes et 12 % des enfants sont dépendants aux aliments ultra-transformés. « Cette prévalence rapportée est similaire aux niveaux de dépendance observés pour d'autres substances chez les adultes (par exemple, 14 % pour l'alcool et 18 % pour le tabac), mais le niveau de dépendance implicite chez les enfants est sans précédent », note les chercheurs. Des chif fres vertigineux alors que, selon l’Inserm, les aliments ultra-transformés constituent en moyenne près d’un tiers de nos apports caloriques journaliers. L’YFAS nécessite de renseigner sa consommation d’aliments contenant des niveaux élevés de glucides raffinés ou de graisses ajoutés, dont les produits ultra-transformés sont les principaux fournisseurs. Ainsi, selon l’étude, « ces types d'aliments sont les plus fortement impliqués dans les indicateurs comportementaux de dépendance, comme la consommation excessive, la perte de contrôle de la consommation, des envies intenses et une consommation continue malgré les conséquences négatives ». Ils sont aussi associés « à des mécanismes fondamentaux de la dépendance, comme le dysfonctionnement neuronal lié à la récompense, l'impulsivité et la dérégulation des émotions, ainsi qu'une moins bonne santé physique et mentale et une qualité de vie inférieure ». Et sur le plan physiologique : « les glucides ou les graisses raffinés évoquent des niveaux de dopamine extracellulaire dans le striatum cérébral similaires à ceux observés avec des substances addictives telles que la nicotine et l'alcool ». Alors que les produits naturels ou peu transformés contiennent des glucides ou des graisses, les produits ultra-transformés eux, contiennent les deux. Ils « semblent avoir un effet supra-additif sur les systèmes de récompense cérébrale, supérieur à l'un ou l'aut re des macronutriments seuls, ce qui peut augmenter le potentiel de dépendance de ces aliments ». Autre argument en leur défaveur, mis en avant par les chercheurs : les glucides et graisses contenues dans les aliments ultra-transformés sont, du fait des procédés industriels utilisés, plus rapides à assimiler que dans d’autres aliments. « Ainsi, la capacité des UPF à délivrer rapidement des substances gratifiantes biodisponibles peut contribuer à leur potentiel de dépendance accrue », notent les chercheurs. Les additifs sont également soupçonnés d’être en cause : « de nombreux UPF contiennent des additifs aromatiques qui augmentent les goûts sucrés et salés, ainsi que des texturants qui améliorent la sensation en bouche ». « Il existe un soutien convergent et cohérent en faveur de la validité et de la pertinence clinique de la dépendance alimentaire », déclare dans un communiqué Ashley Gearhardt, auteur de l'article et professeur de psychologie à l'Université du Michigan. « En reconnaissant que certains types d'aliments transformés ont les propriétés de substances addictives, nous pourrons peut-être contribuer à améliorer la santé mondiale ». Article rédigé par Georges Simmonds pour RT Flash BMJ | | | |
| Des chercheurs de l’Université de Californie Davis ont découvert qu’une petite partie d’une molécule – appelée épitope – pourrait agir comme un interrupteur pour activer la mort des cellules cancéreuses. Leurs travaux constituent une avancée majeure pour la mise au point de nouveaux traitements contre le cancer. Un épitope est une petite partie d'une molécule qui peut être reconnue par une autre molécule dite réceptrice d'antigène. Une molécule réceptrice d’antigène est, par exemple, un anticorps, qui combat les agents pathogènes. Autrement dit, l’épitope est le point de liaison entre une molécule et un anticorps. Lors de leurs travaux, les chercheurs ont donc découvert un nouvel épitope sur le récepteur CD95, aussi appelé Fas. Ce récepteur CD95, lorsqu’il est activ é, provoque la mort des cellules. La découverte de l’épitope qui permet d’activer CD95 permet donc de tuer les cellules et provoquer la mort de celles cancérigènes. « Les précédents travaux pour cibler ce récepteur ont échoué », explique Jogender Tushir-Singh, l’un des auteurs, dans un communiqué. « Mais maintenant que nous avons identifié cet épitope, il pourrait y avoir une voie thérapeutique pour cibler Fas dans les tumeurs ». À l’avenir, les chercheurs comptent poursuivre leurs travaux afin de mettre au point un anticorps capable de se lier au récepteur à l’épitope CD95 des cellules cancéreuses et ainsi provoquer leur mort. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Des chercheurs du Brigham and Women's Hospital de Boston ont montré que le virus responsable des boutons de fièvre et de l’herpès génital pourrait être utilisé pour lutter contre l’une des formes les plus mortelles de cancer du cerveau. Concrètement, il déclencherait une réponse immunitaire suffisamment forte contre les cellules cancéreuses du cerveau. Appelé CAN-3110, le traitement a cependant été modifié pour garantir que les cellules saines ne soient pas également tuées. Comme indiqué dans leur étude de phase I, publiée dans la revue Nature et relayée par le Daily mail, ils ont administré à 41 malades une dose unique de CAN-3110. Parmi les participants, environ les deux tiers avaient déjà des anticorps contre le virus de l’herpès provenant d’infections antérieures. Ils ont ensuite comparé les résultats avec ceux d’un groupe non exposé au virus de l’herpès. Après analyses, ils se sont rendu compte que le taux de survie médian du groupe avec des anticorps était d’environ 14 mois, tandis que ceux qui n’avaient pas été exposés à l’herpès avaient un taux de survie de huit mois. Désormais, d’autres études sont nécessaires pour confirmer ces résultats et déterminer si le CAN-3110 pourrait être un réel traitement efficace sur le long terme contre le cancer du cerveau. Pour rappel, les cancers du cerveau sont très difficiles à traiter avec plus de 84 000 personnes diagnostiquées chaque année. La forme la plus répandue, le glioblastome, est l'un des types de cancer les plus mortels. Elle a notamment tué le fils du président des États-Unis, Beau Biden. Les traitements traditionnels, comme la chimiothérapie et la radiothérapie, ne parviennent souvent pas à le combattre. Comme le rappelle la Fondation pour la recherche sur le cancer, les maux de tête (ou céphalées) constituent le symptôme le plus fréquent, quel que soit le type de tumeur cérébrale. Ils se manifestent souvent le matin, parfois accompagnés de nausées et/ou de vomissements. Certains patients présentent aussi des convulsions ou crises d’épilepsie, parfois dès les tous premiers stades de la maladie ou plus tardivement. Article rédigé par Georges Simmonds pour RT Flash Boston Herald | | | |
| La pollution atmosphérique par les particules fines dans les lieux résidentiels et professionnels augmente le risque de cancer du sein, selon une nouvelle analyse de l’étude XENAIR présentée au congrès de la Société Médicale d'Oncologie Européenne (ESMO) 2023 à Madrid par la Professeure Béatrice Fervers, responsable du département Prévention Cancer Environnement, au centre Léon Bérard en France. « À notre connaissance, cette étude est la première à examiner le risque de cancer du sein associé à l'exposition à long terme à la pollution atmosphérique à la fois au domicile et sur le lieu de travail des sujets, estimée à l'aide d'un modèle [statistique] à résolution spatiale très fine », indiquent les chercheurs. « Nos données ont montré une association statistiquement significative entre l'exposition à long terme à la pollution de l'air par les particules fines, à la maison et au travail, et le risque de cancer du sein. Cela contraste avec des recherches antérieures qui ne prenaient en compte que l'exposition aux particules fines là où les femmes vivaient, et qui montraient des effets faibles ou nuls sur le risque de cancer du sein », a commenté la Professeure Fervers dans un communiqué de presse diffusé en amont du congrès. Les résultats ont montré que le risque de cancer du sein augmentait de 28 % lorsque l'exposition à la pollution atmosphérique par les particules fines (PM2,5) augmentait de 10 µg/m3 – ce qui équivaut approximativement à la différence de concentration de particules PM2,5 généralement observée dans les zones rurales par rapport aux zones urbaines en Europe. Des augmentations plus faibles du risque de cancer du sein ont également été enregistrées chez les femmes exposées à des niveaux élevés de pollution atmosphérique par des particules plus grosses (PM10 et dioxyde d'azote). "Il existe désormais des preuves épidémiologiques et biologiques solides du lien entre l'exposition aux particules PM2,5 et le cancer, et il y a de bonnes raisons cliniques et économiques de réduire la pollution afin de prévenir les cancers", a déclaré, pour sa part, le Professeur Jean-Yves Blay, directeur de la politique publique de l'ESMO. Suite à une proposition de la Commission européenne d'octobre 2022 visant à réduire la limite des particules PM2,5 dans l'air de 25 µg/m3 actuellement à 10 µg/m3 d'ici 2030, l'ESMO a demandé instamment une réduction supplémentaire de la limite des PM2,5 à 5 µg/m3, conformément aux directives de l'Organisation mondiale de la santé en matière de qualité de l'air. Article rédigé par Georges Simmonds pour RT Flash ESMO | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | C’est une première en Europe. Une rame TER à batterie électrique entame des tests dans le centre d’essais ferroviaires de Bar-le-Duc pour être exploitée dans des conditions identiques à celles d’un service commercial. Confiée par la région Nouvelle-Aquitaine, la rame est sortie de l’usine Alstom de Crespin durant l’été après une première expérimentation concluante. Le projet de train à batteries a été lancé en 2021 par SNCF et Alstom et avec l’association de cinq régions : Auvergne-Rhône-Alpes, Hauts-de-France, Nouvelle-Aquitaine, Occitanie Pyrénées-Méditerranée et Provence-Alpes-Côte d’Azur. Il consiste à rendre 100 % électriques les trains construits au début des années 2000 qui fonctionnent actuellement au diesel. L’objectif : diminuer les émissions de CO2 et les polluants sur les lignes non-électrifiées. Celles-ci sont encore nombreuses : parmi les 15 000 kilomètres de lignes de desserte fine, soit les voies où circulent les principalement les trains régionaux, seulement 1415 kilomètres sont électrifiés, d’après Christian Courtois, chef de département traction électrique au sein de SNCF Réseau. Sur les rames concernées, l’une des stratégies est donc de remplacer les éléments thermiques par des batteries au lithium rechargeable, qui permettent 80 km d’autonomie. Une opération "hautement complexe" précise Alstom. La dernière phase d’essai est programmée sur le réseau ferré national pour décembre 2023 et janvier 2024. Elle doit permettre de s’assurer de la compatibilité avec les infras tructures. Restera ensuite à obtenir les autorisations pour l’exploitation commerciale. Article rédigé par Georges Simmonds pour RT Flash Environnement Magazine | | | |
| General Motors, sa filiale de conduite autonome Cruise, et Honda viennent de révéler la création d’une coentreprise pour lancer un service de taxi autonome à Tokyo. Les trois sociétés estiment que l’infrastructure de la capitale japonaise, la ville la plus peuplée au monde, est particulièrement propice à ce type d’activité. Leurs dirigeants ont annoncé la nouvelle lors d’une conférence de presse organisée en amont du Japan Mobility Show 2023 à Tokyo, et cette collaboration n’est pas due au hasard. Les sociétés Honda et General Motors sont associées depuis 2013, lorsqu’elles ont commencé à travailler conjointement sur des systèmes de piles à combustible à hydrogène. Le véhicule autonome de Cruise, Origin, est le fruit d’un partenariat pluriannuel entre sa société mère et Honda, qui est par ailleurs actionnaire de Cruise. Enfin, les deux constructeurs développent ensemble des véhicules électriques qui seront lancés en Amérique du Nord en 2027. Les entreprises ont justement l’intention de lancer ce nouveau service avec les véhicules Cruise Origin, au départ dans le centre de Tokyo. Des dizaines de véhicules seront déployées dès le début de l’année 2026, la flotte s’étendra par la suite à 500 engins. Les firmes prévoient ultérieurement d’étendre la zone de service. « Nous voyons une énorme opportunité au Japon, qui a le potentiel pour devenir l’un des plus grands marchés de conduite autonome au monde, étant donné la forte demande actuelle de taxis. La région a également un besoin croissant de nouvelles formes de transport, avec une pénurie de chauffeurs et une demande grandissante de formes de transport accessibles », a détaillé Marry Barra, PDG de General Motors. Cette annonce intervient à un moment charnière pour Cruise, qui utilise des taxis autonomes à San Francisco, et dans certaines zones d’Austin, de Houston et de Phoenix. L’entreprise doit en effet faire face à des obstacles réglementaires. En début de semaine, les autorités américaines ont ouvert une enquête pour déterminer si elle prend suffisamment de précautions pour protéger les piétons, apr& egrave;s que ses véhicules ont été impliqués dans plusieurs incidents à San Francisco. Article rédigé par Georges Simmonds pour RT Flash Siècle Digital | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|