| | Edito Il faut que les Français se prononcent sur les 149 propositions de la Convention Citoyenne
Cette semaine, j’ai souhaité revenir sur la lancinante question climatique, dont une récente enquête d’opinion nous apprend qu’elle est devenue, avec la santé, la principale préoccupation des Français, devant l’emploi, la sécurité et l’éducation… Au terme de plus de neuf mois de travaux, qui ont été unanimement salués pour leur qualité et leur sérieux, la Convention citoyenne pour le climat, composée de 150 personnes tirées au sort, a rendu officiellement, le 21 juin dernier, son volumineux rapport final, riche de 149 propositions qui se veulent une contribution destinée à atteindre l’objectif ambitieux, mais difficile, que s’est fixé notre pays : réduire d'au moins 40 % des émissions de gaz à effet de serre d’ici 2030, sans aggraver les inégalités sociales (Voir Propositions). Il est important de souligner que le rapport final de cette Convention, après avoir fait l’objet de débats approfondis et parfois très vifs, a été adopté à 96 % des voix, ce qui traduit l’émergence d’un large consensus, non seulement sur les objectifs à atteindre pour tenter de limiter les effets du changement climatique en cours, mais également sur les différents leviers à actionner pour tendre vers ce but, dont nos concitoyens sont à présent convaincus qu’il n’est ni reportable, ni négociable. À l’issue de ses travaux, la Convention citoyenne pour le climat a eu la sagesse de regrouper par objectif l’ensemble des mesures qu’elle préconise. Elle a également exprimé le souhait que la lutte contre le réchauffement climatique soit inscrite dans la Constitution, et qu’un crime "d'écocide" soit créé dans notre cadre juridique. Elle a enfin formulé le vœu que l’adoption de ces deux mesures importantes puisse faire l’objet d’un référendum, si le Président de la République le décide, afin que l’ensemble des Français puisse se prononcer sur leur pertinence. Cette Convention citoyenne, qui avait suscité à l'origine un certain scepticisme, a réalisé un travail de réflexion et de propositions d’autant plus remarquable qu'elle n’était pas composée de spécialistes et qu’elle a pris le temps d’approfondir de nombreuses questions techniques et complexes. Un autre point important mérite d’être souligné : Cette Convention citoyenne, non dans un souci de fuir ses responsabilités, mais dans une volonté d’apaisement et d’ouverture sur des débats ultérieurs, a refusé de se prononcer de manière définitive et tranchée sur la question de la taxe carbone, qui ne peut avoir de sens que si elle est réglée à un niveau européen et mondial, et sur la question de l’avenir de la production nucléaire d’énergie dans notre pays, qui mérite un grand débat démocratique spécifique et doit être réexaminée à la lumière des nouveaux impératifs de lutte contre le réchauffement climatique. Il serait fastidieux ici de rappeler et de commenter les 149 propositions émises par cette Convention. Rappelons simplement que celle-ci a travaillé sur cinq grandes thématiques : le bâtiment et le logement, la consommation, les déplacements et les transports, l’emploi et la production, et enfin l’alimentation et l’agriculture. S’agissant du logement, la Convention souligne à juste titre que l’amélioration des performances énergétiques des bâtiments, responsables de plus de 40 % de nos émissions de CO2, est une priorité dans la lutte contre le réchauffement climatique. Elle préconise donc la rénovation énergétique de 20 millions de logements d’ici 2030, soit un peu plus d’un logement sur deux. Atteindre un tel objectif suppose de multiplier par trois le rythme de la mise aux normes énergétiques des logements. C’est pourquoi la Convention souhaite que cette rénovation énergétique devienne une obligation pour les propriétaires. Mais bien consciente des difficultés que pourrait entraîner une telle obligation pour les nombreux propriétaires modestes, la Convention demande à l’État d’imaginer des dispositifs d 8217;aides financières et fiscales qui puissent accompagner cette indispensable mise aux normes thermiques de nos logements et bâtiments. Pour lutter contre l’artificialisation des sols, qui progresse de plus de 8 % par an, ce qui représente l’équivalent d’un département français perdu tous les 10 ans, la Convention souhaite interdire toute construction nouvelle lorsque des réhabilitations de zones déjà imperméabilisées sont possibles. D’une manière générale, la Convention souhaite que l’État mette en place une politique globale visant à maîtriser l'étalement urbain galopant, et à préserver une agriculture de proximité, ainsi que des espaces verts destinés au maintien de la biodiversité et aux loisirs. Il s’agit de poser de manière sereine mais résolue la question délicate de la densification urbaine que nous devrons affronter, à la fois pour lutter contre le changement climatique, réduire les gaspillages considérables de temps et d’énergie liés à des transports toujours plus longs entre le domicile et le travail et revitaliser nos centres-ville. À cet égard, rappelons qu’une remarquable étude, publiée il y a une dizaine d’années, avait analysé et comparé la consommation globale d’énergie de deux mégapoles ayant une population équivalente (5,5 millions d’habitants) mais une structure spatiale diamétralement opposée : Barcelone, en Catalogne et Atlanta, aux États-Unis. Cette étude montrait de manière édifiante que la ville d’Atlanta, qui s’était développée selon le mode de l’étalement urbain sans aucune contrainte, consommait globalement sept fois plus d’énergie pour son fonctionnement et ses déplacements que Barcelone, ville qui appartenait au modèle de développement urbain dense, de type méditerranéen. S’agissant de la consommation, la Convention estime que nous devons nous attendre à une plus grande maîtrise, non par des mesures coercitives, mais par la transparence de l’information. Il est donc proposé de définir un « score carbone » lisible et de rendre son affichage obligatoire sur tous les produits de consommation et les services. De manière cohérente, il est également proposé d’interdire à l’horizon 2023 la publicité sur les véhicules les plus gourmands en énergie et les plus polluants, et de programmer la fin des véhicules thermiques utilisant des énergies fossiles. Pour mieux consommer, les citoyens proposent de créer une obligation d’affichage de l’impact carbone des produits et services, de limiter le suremballage et l’utilisation de plastique à usage unique, en développant le vrac et la consigne. Ainsi, l’offre de vrac, dans les moyennes et grandes surfaces, devra atteindre, dans chaque rayon, 25 % du sec et du liquide en 2023 et 50 % en 2030. En matière de transport et de déplacement, qui représentent plus d’un quart de nos émissions de CO2, la Convention propose tout un ensemble de mesures qui visent à la fois à réduire l’usage de la voiture particulière et à favoriser l’autopartage. Citons notamment la réforme de l’indemnité kilométrique fiscale, l’interdiction d’accès au centre-ville pour les véhicules les plus polluants et les plus émetteurs de gaz à effet de serre, la réduction à 5,5 % de la TVA sur les billets de train, et la suppression progressive des vols intérieurs d’ici 2025 quand le même trajet peut être réalisé en train en moins de quatre heures. Dans le domaine de la production, la Convention souhaite diminuer de manière drastique le gaspillage de matière d’énergie en intégrant le recyclage dans le cycle de vie du produit. L’idée est, qu’à terme, la quasi-totalité des produits durables commercialisés soient démontables, réparables et recyclables. Enfin, dans le domaine agricole, la Convention préconise une réduction de 20 % des émissions de gaz à effet de serre d’ici 10 ans. Pour y parvenir, la Convention souhaite atteindre l’objectif de 50 % des terres cultivées en agroécologie en 2040, et réduire de moitié l’utilisation des produits phytosanitaires d’ici à 2025. Autre recommandation, favoriser une évolution de nos habitudes d’alimentation ; concrètement, il s'agit de tendre vers une consommation moindre de viande et de produits laitiers, et d'augmenter la part des fruits, légumes et céréales dans notre alimentation. Sur cette question, il est cependant essentiel de rappeler que les habitudes alimentaires relèvent bien entendu de la liberté individuelle de chacun, dans le cadre d’un choix libre et éclairé. Il n’est donc pas question d’imposer à nos concitoyens tel ou tel régime alimentaire. Il est souhaitable, en revanche, de les informer dès le plus jeune âge du fait que certaines habitudes alimentaires simples, ainsi que cela est solidement démontré par de très nombreuses études scientifiques, permettent de réduire considérablement les risques de développer des maladies graves (cancer, maladies cardio-vasculaires, maladies neurodégénératives notamment). Or il se trouve que ces régimes protecteurs pour notre santé, reposant sur une consommation accrue de fruits, de légumes et de céréales, et sur une diminution des apports en protéines animales et en produits transformés, sont également ceux qui favorisent les modes de productions agricoles les plus respectueux de l’environnement et les moins émetteurs de gaz à effet de serre. Soulignons également que cette Convention a terminé ses travaux par une « Note de synthèse », contenant des pistes pour une réforme fiscale visant à faire de la composante écologique et climatique la principale clé de notre fiscalité et à affecter une plus large part des recettes fiscales à la lutte contre le changement climatique. Et maintenant que va-t-on faire du rapport final voté par cette Convention Citoyenne ? Il n'est pas imaginable qu'il soit déposé dans un tiroir, comme l'ont été auparavant de nombreux autres rapports, eux aussi très intéressants. Il est difficilement pensable que les 149 propositions émises par ces 150 citoyens tirés au sort soient soumises à un référendum. Nous avons malheureusement trop l'habitude, en France, d'apporter une réponse politique spontanée à des questions qui mériteraient une profonde réflexion. Par ailleurs, si le référendum ne reprenait que quelques unes des propositions de la Convention Citoyenne comment connaîtrions-nous l'opinion des Français sur toutes les autres propositions ? Ce qui, à mon avis, serait plus bénéfique pour notre Démocratie serait que tous les grands médias (té ;lévision, radio, presse écrite) reprennent les 149 propositions de la Convention Citoyenne et les soumettent aux téléspectateurs, aux auditeurs et aux lecteurs pour qu'avec une simple case à cocher face à chacune des 149 propositions, ils puissent dire s’ils sont d'accord ou pas. A mon avis, si l'accompagnement médiatique entourant cette campagne d'avis est fait avec pertinence, ce sont des millions de Français qui répondront. Cela laisserait une trace beaucoup plus profonde auprès de tous les Français qu'un sondage réalisé auprès de 1000 personnes... Cela a été peu souligné, mais alors que la Convention citoyenne pour le climat terminait ses travaux, l’Agence Internationale de l’Énergie (AIE) publiait son dernier rapport contenant un ensemble de mesures destinées à accélérer la transition énergétique mondiale, à diminuer plus rapidement nos émissions de gaz à effet de serre et à lutter plus efficacement contre le réchauffement climatique. Et il est frappant de constater que, même si ces deux rapports ont été élaborés dans des contextes différents, leurs conclusions se rejoignent par bien des aspects (Voir AIE). Comme le souligne Fatih Birol, le directeur exécutif de l’AIE, « La façon dont l’énergie et le climat vont être intégrés dans les plans de relance va déterminer l’avenir de la planète. L’économie mondiale risque de s’effondrer mais la calotte polaire est aussi en train de fondre. Il faut faire face à ces deux défis en même temps ». Ce document de l’AIE contient une trentaine de mesures dans six domaines clés : l’électricité, les transports, l’industrie, les bâtiments, les carburants et les technologies bas carbone. L’AIE estime qu’il faudra réaliser chaque année, d’ici 2023, 1 000 milliards de dollars d’investissements (890 milliards d’euros), soit à peine 0,7 % du produit mondial brut, pour mettre en œuvre cette feuille de route. Mais ces investissements, précise l’AIE, permettraient de relancer la croissance mondiale de 1,1 point de pourcentage par an en moyenne et de créer chaque année environ 9 millions d’emplois, tout en réduisant de plus de 10 % les émissions mondiales de gaz à effet de serre liées à l’énergie (33 gigatonnes en 2018). Concernant les bâtiments, responsables de plus du tiers des émissions de CO2 liées à l’énergie, l’AIE propose de cibler en priorité les logements sociaux et les bâtiments publics, et souligne que cet effort d’investissement produirait des bénéfices considérables, non seulement pour le climat, mais également pour le pouvoir d’achat et le niveau de vie des ménages les plus modestes, sans compter les immense retombées positives en matière de santé publique, liées à une forte diminution du nombre des pathologies et des décès provoquées par la pollution de l’air qui, rappelons-le, tue plus de 8 millions de personnes par an dans le monde chaque année. L’AIE recommande également un soutien politique plus affirmé en faveur des énergies renouvelables, notamment en ce qui concerne les installations photovoltaïques et éoliennes qui sont à présent, dans beaucoup de régions du monde, devenues aussi compétitives que la production d’énergie à partir de pétrole, de charbon ou de gaz. L’AIE recommande par ailleurs un allégement et une simplification des cadres et procédures administratives, de manière à permettre une accélération dans la réalisation effective des installations de production d’énergie à partir de sources renouvelables. L’AIE préconise enfin une modernisation de la structure physique et de la gestion informatique des grands réseaux de distribution électrique, en rappelant que les seules pertes d’énergie liées au déficit d’efficacité de ces réseaux entraînent plus d’un milliard de tonnes d’émissions de CO2 par an. On le voit, cette feuille de route énergétique de l’AIE constitue à bien des égards une déclinaison au niveau planétaire des propositions et recommandations qui viennent d’être faites au niveau national par la Convention citoyenne pour le climat. Sur cette question fondamentale concernant la nouvelle société qu’il va nous falloir construire pour affronter ce défi sans précédent du changement climatique, il est également intéressant de lire la contribution que vient de faire Jacques Attali, dans son dernier essai intitulé, « L’économie de la vie ». Attali propose avec force que nous tirions toutes les leçons de la pandémie mondiale qui nous a frappés, en nous engageant enfin pleinement dans la lutte contre le réchauffement climatique, et surtout en sachant inscrire et hiérarchiser nos actions dans le temps long, de manière à pouvoir mieux anticiper et prévenir les effets dévastateurs systémiques résultants de catastrophes planétaires. Attali rappelle que, si des pays comme la Corée du Sud et Taïwan ont eu un nombre de victimes bien moins important, par rapport à la population, que la plupart des pays d’Europe ou du continent américain, cela ne doit rien au hasard. Ces deux pays ont en effet su penser, préparer et planifier de manière collective et démocratique une riposte sanitaire et sociale globale à la pandémie de Coronavirus qui, pour un coût collectif très modique, leur a permis de réduire considérablement le coût humain et économique de cet événement catastrophique. Attali propose de renverser le paradigme dominant, c’est-à-dire de reconstruire une société et une économie non pas basées sur l’évitement de la mort et de la souffrance mais sur la promotion et l’exhortation de la vie, comme puissance productrice, innovatrice et créatrice. Il est intéressant de souligner que la réflexion d’Attali, et ses conclusions, rejoignent celles du fameux rapport qu’avait rédigé en 2006 Nicolas Stern, ancien directeur de la Banque mondiale, qui avait évalué à 20 % du produit mondial brut (plus de 5000 milliards de dollars à l’époque) le coût de l’inaction face au changement climatique, alors qu’en investissant chaque année l’équivalent de seulement 1 % de ce même PMB, il était encore possible de limiter considérablement les effets dévastateurs inca lculables de ce réchauffement climatique pour nos sociétés humaines. Et bien que je sois attaché dans RT Flash à ne pas tomber dans le catastrophisme et à toujours garder le sens de la mesure, il nous faut bien admettre que les toutes dernières découvertes et études scientifiques concernant le changement climatique mondial sont plus qu’alarmantes. La première concerne le rôle exact des nuages dans le réchauffement climatique. Jusqu’à présent, les scientifiques pensaient que les nuages avaient un impact climatique neutre. Mais récemment, de nouvelles études ont montré que les nuages ont en fait tendance à augmenter la sensibilité climatique, c’est-à-dire la modification du climat liée aux activités humaines, et aux émissions anthropiques de gaz à effet de serre, qui atteignent à présent le niveau faramineux de 55 milliards de tonnes par an, en équivalent CO2. Johan Rockström, le directeur de l’Institut de recherche de l’impact climatique de Potsdam, souligne que ces études vont conduire à réévaluer rapidement la sensibilité climatique globale à 5 degrés au lieu de 3, ce qui va nécessiter un effort encore plus important pour limiter les effets désastreux du réchauffement, à présent inéluctable. Concrètement, cela signifie que les prochains rapports du Giec devront intégrer ces nouvelles données et feront des recommandations de réduction encore plus drastique de nos émissions de gaz à effet de serre, si nous voulons éviter un emballement catastrophique du mécanisme de réchauffement climatique en cours. De manière cohérente, la deuxième étude récente, publiée fin mai, indique que le réchauffement climatique pourrait impacter les eaux profondes 7 fois plus rapidement que ce que l'on pensait d'ici 2050. Et ce, même si les émissions de gaz à effet de serre étaient réduites de façon spectaculaire. Enfin, une troisième étude, publiée il y a quelques jours, révèle que les modèles climatiques concernant le dégel du permafrost n’avaient pas intégré la photominéralisation, un processus naturel qui provoque une libération en grande quantité de CO2 dans l’atmosphère. Le permafrost renferme environ 1,5 milliard de tonnes de carbone, dont une partie est émise dans l’atmosphère en raison de l’activité microbienne. Jusqu’à présent, les spécialistes estimaient qu’entre 5 et 15 % du carbone organique stocké dans le permafrost serait libéré sous forme de dioxyde de carbone d’ici 2100, induisant une augmentation supplémentaire du réchauffement climatique de 0,3 à 0,4°C. Mais selon cette étude, ce phénomène de photominéralisation, liée à l’oxydation par la lumière solaire, entraînerait une augmentation très significative d’environ 14 % de la quantité de dioxyde de carbone libérée dans l’atmosphère. Face à cette réalité du changement climatique, qui dévoile chaque jour un peu plus sa puissance et ses aspects les plus sombres, un changement radical est en train de s’opérer au niveau de l’opinion publique mondiale qui place désormais cette question du défi climatique au premier rang de ses préoccupations. Nos responsables économiques et politiques semblent enfin avoir pris la mesure des immenses défis qui nous attendent pour conserver une planète vivable, et non pas une Terre sur laquelle, d’ici 2050, un tiers des régions pourrait afficher, à certaines périodes de l’année, des températures devenues incompatibles avec la vie humaine... Mais, disons-le tout net, je ne crois pas que nos concitoyens accepteront la régression économique sociale et humaine, ni la décroissance mortifère que certains préconisent, pour surmonter ce défi de civilisation. N’oublions pas que pour les trois quarts de l’humanité, leurs objectifs légitimes ne sont pas de décroître, mais au contraire de pouvoir produire, de manière durable et respectueuse de l’environnement, plus de produits alimentaires de qualité, pour nourrir les deux milliards et demi d’humains que la terre comptera en plus au milieu de ce siècle, de pouvoir réaliser tous les nouveaux équipements et infrastructures, et produire les nouveaux services dont auront grand besoin en 2050 les 10,5 milliards de terriens, dans les domaines essentiels de l’éducation, de la culture, des transports ou encore de la santé. Il n’y a qu’une façon de relever ce défi, c’est de se souvenir qu’écologie et économie sont les deux branches d’un même arbre. Ces deux mots partagent d’ailleurs une racine commune, Oikos, la maison en grec. Ce n’est donc pas en tournant le dos à la science, à l’innovation et à la créativité sous toutes ses formes, ni en supprimant l’initiative privée et en instaurant des tyrannies collectivistes qui ont amplement montré par le passé leur vraie nature oppressive, que nous parviendrons à construire le monde plus durable, plus équitable, en un mot plus vivable que nous souhaitons. Faisons au contraire le pari de l’audace créatrice et utilisons toutes les capacités d’entreprise individuelles et collectives, ainsi que les extraordinaires connaissances scientifiques et techniques que nous avons à présent accumulées, et qui vont encore s’accélérer dans les décennies à venir, pour construire un Nouveau Monde dont le principe organisateur ne soit pas la rareté et la pénurie généralisées et subies, mais la pleine expression de la puissance vitale et créatrice des êtres humains et de leurs aspirations à vivre pleinement et dignement, en harmonie avec une nature respectée et protégée. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | Des chercheurs américains de l'US Office of Naval Research et l'Army Research Laboratory ont développé une nouvelle méthode pour prédire le processus de rupture d'un matériau à l'aide de techniques de machine learning. L'objectif est notamment de pouvoir facilement connaître sa résistance aux chocs. Pour prédire la façon dont un matériau se brise, les scientifiques utilisent la dynamique moléculaire, une technique de simulation numérique permettant de modéliser l'évolution d'un système de particules au cours du temps. En pratique, cette méthode consiste à simuler le mouvement d'un ensemble de quelques dizaines à quelques milliers de particules dans un certain environnement (température, pression…). Mais ce processus est très lent car il nécessite de résoudre des équations du mouvement pour chaque atome. Raison pour laquelle l'équipe de scientifiques a décidé d'explorer des moyens de rationaliser ce processus en utilisant un modèle d'apprentissage automatique. Dans l'étude, les scientifiques examinent une variété de revêtements composites et stratifiés faits de matériaux cristallins. « Nous simulons, atome par atome, la façon dont les matériaux se brisent et nous enregistrons ces informations », raconte Markus J. Buehler. Ils ont généré des centaines de simulations de ce type avec une grande variété de structures et ont soumis chacune d'entre elles à de nombreuses simulations de différentes fractures. Ils ont ensuite introduit l'ensemble de ces données dans leur modèle d'apprentissage automatique pour voir s'il pouvait prédire les performances d'un nouveau matériau qui ne faisait pas partie du groupe de données initial. « La simulation informatique par IA peut faire ce qui prend normalement beaucoup de temps en utilisant la dynamique moléculaire...C'est donc une toute nouvelle façon de simuler la défaillance des matériaux », se réjouit Markus J. Buehler. Le temps habituellement nécessaire pour faire une simulation est considérablement réduit. Yu-Chuan Hsu, un des auteurs de l'étude, explique que « pour des simulations uniques en dynamique moléculaire, il faut plusieurs heures pour exécuter les simulations. Grâce à l'IA, il ne faut plus que 10 millisecondes pour parcourir toutes les prédictions des modèles et montrer comment une fissure se forme par étape ». Ce système pourrait être utilisé pour développer des revêtements protecteurs ou des matériaux structuraux plus solides, par exemple pour protéger les avions ou les véhicules spatiaux des impacts. Les défaillances de matériaux telles que les fractures sont « l'une des principales causes de pertes dans l'industrie. Pour inspecter des avions, des trains, des voitures, des routes (...) ou pour comprendre la fracture de tissus biologiques tels que les os, la capacité de simuler la fracture avec l'IA est un vrai changement », note Markus J.Buelher. Article rédigé par Georges Simmonds pour RT Flash Usine Digitale | | | |
| Intel s’est associé à l’Université de Pennsylvanie (Etats-Unis) pour créer des modèles d’intelligence artificielle capable d’identifier les tumeurs cérébrales. Pour ce faire, la société américaine va employer une méthode inédite en matière de machine learning. Cette méthode inédite, appelée "apprentissage fédéré", permettra aux modèles d'IA d'être entraînés séparément au sein de 29 établissements de santé distincts, supervisés par l’université américaine et localisés dans sept pays différents – aux Etats-Unis, au Canada, au Royaume-Uni, en Allemagne, aux Pays-Bas, en Suisse ainsi qu'en Inde. Intel et son partenaire académique travailleront de concert sans qu’un échange de données médicales ne soit nécessaire. Les établissements constituant la fédération menée par l’école de médecine de l’Université de Pennsylvanie se chargeront de nourrir les modèles d’IA à l’aide des informations de leurs patients. Des travaux financés à hauteur de 1,2 million de dollars sur trois ans via des subventions dans le cadre du programme "Technologies informatiques pour la recherche contre le cancer", mis en place par l’Institut national du cancer américain. Usuellement, les modèles d’IA sont alimentés à partir de données qui parviennent jusqu’au serveur central où ils sont stockés. Pour assurer la confidentialité des données de santé, Intel a mis au point un fonctionnement novateur pour, à l’inverse, permettre aux modèles d’IA à alimenter de se déplacer jusque dans les infrastructures des établissements de santé. De cette manière, chacun de ces derniers dispose d’un modèle propre, élaboré à partir de ses données. Intel fait directement remonter ces modèles "locaux" plutôt que les données brutes. Ceux-ci sont alors agrégés pour affiner l’outil. Selon l'entreprise américaine, cette façon de faire génère des modèles à 99 % aussi fiables que ceux élaborés par le biais t raditionnel – qui ne protège pas les données. « Il est largement admis par notre communauté scientifique que le machine learning nécessite des données nombreuses et diverses qu'aucune institution ne peut détenir à elle seule », a déclaré par voie de communiqué Spyridon Bakas, médecin spécialiste de l’imagerie médicale à l’Université de Pennsylvanie et chercheur principal dans le cadre de cette étude. « Ensemble, nous commencerons à développer cette année des algorithmes visant à identifier les tumeurs cérébrales à partir d'une version considérablement élargie de l'ensemble des données de la segmentation internationale des tumeurs cérébrales. Cette fédération permettra aux chercheurs médicaux d'accéder à des quantités beaucoup plus importantes de données e n matière de soins de santé tout en en protégeant la sécurité ». Cette année, une tumeur cérébrale sera diagnostiquée chez près de 80 000 personnes – dont plus de 4 600 enfants – aux Etats-Unis selon les chiffres de l’Association américaine des tumeurs cérébrales. La technique d’intelligence artificielle présentée par Intel et l’Université de Pennsylvanie vise à permettre une détection et une prise en charge précoces. La confidentialité des données que garantit la nouvelle méthode de travail adoptée par les deux partenaires doit permettre de lever les doutes qui persistent chez les praticiens, attachés au bon respect du secret médical, pour établir un modèle fiable, « formé sur le plus grand ensemble de données de tumeurs cérébrales à ce jour ». Article rédigé par Georges Simmonds pour RT Flash Usine Digitale | | ^ Haut | |
|
| | | Des chercheurs du Laboratoire américain sur les énergies renouvelables (NREL) ont atteint un rendement de 47,1 % avec une cellule photovoltaïque à six jonctions sous une lumière concentrée. Ils dépassent ainsi de 1,1 % le précédent record que détenaient Soitec, le CEA-Leti et l’Institut Fraunhofer ISE depuis 2014. Une équipe du Laboratoire américain sur les énergies renouvelables (NREL) a mis au point une cellule photovoltaïque affichant un rendement record de 47,1 %. Cette performance a été établie sous une lumière concentrée de 143 suns (1 sun = 100 mW/cm2), équivalent à 143 fois l'irradiance du soleil. Elle dépasse de 1,1 % le précédent record que détenait Soitec en partenariat avec le CEA-Leti et l’Institut Fraunhofer ISE depuis 2014. Alors que Soitec utilisait une cellule à quatre jonctions sous une concentration de 508 suns, le NREL utilise six jonctions sous 143 suns. Empilées les unes sur les autres, les jonctions sont des sous-cellules composées de matériaux qui absorbent les photons dans des bandes de longueurs d’onde différentes. Cela permet de limiter les pertes tout en captant une plus large partie du spectre lumineux par rapport à des cellules au silicium classiques composées d’une seule jonction. Les matériaux utilisés sont des combinaisons de semiconducteurs III-V - appelés ainsi en raison de leur place dans le tableau périodique des éléments - préférés pour leur capacité à absorber la lumière de manière efficace sur quelques microns d’épaisseur. Toutefois, une telle architecture est chère à produire. Acceptable pour le spatial - les cellules multi-jonctions sont utilisées sur les satellites -, le surcoût est problématique sur Terre. D’où l’idée de réduire la taille des cellules et d’y concentrer la lumière grâce à un dispositif optique. « De cette manière, il est possible de réduire la quantité de matériau d’un facteur cent, voire mille, par rapport à une cellule plane en silicium », précise le NREL. Les chercheurs affirment pouvoir dépasser 50 % de rendement, notamment en « réduisant les barrières résistives à l’intérieur de la cellule qui entravent le flux de courant ». Article rédigé par Georges Simmonds pour RT Flash NREL | | | |
| Des chercheurs de l'EPFL (Lausanne), dirigés par Adrian Ionescu, ont mis au point un nouveau type de transistor qui pourrait révolutionner l'électronique, les appareils numériques et les objets connectés, d'ici quelques années. Ces scientifiques ont voulu mettre au point une technologie électronique qui s’approche de l’efficience des neurones humains, tant sur le plan énergétique qu'en matière de calcul. Bidimensionnel, il se compose d’une jonction de couches atomiques de sélénure de tungstène et de séléniure d’étain qui sont des matériaux semi-conducteurs. A partir de ce transistor unique, les chercheurs du Nanolab ont aussi conçu une autre structure hybride à transport électronique dual, qui dans le futur pourra offrir encore plus de performance. Les chercheurs ont également réussi à dépasser une limite fondamentale de l’électronique. « Supposons que le transistor soit un interrupteur actionné par une force. Dans un transistor classique, on doit consommer de l’énergie pour l’allumer ou l’éteindre. Imaginez maintenant l’énergie que l’on doit fournir pour gravir une montagne. Cela se révèle beaucoup plus facile si un tunnel existe. C’est le même principe avec ce transistor », illustre le professeur. Jusqu’à présent, personne n’était parvenu à réduire la consommation de ce type de composant 2D/2D, ce qui constituait un plafond fondamental. Or, grâce au transistor élaboré par l’équipe du Nanolab, les scientifiques sont arrivés à franchir cette limite et employer moins d’énergie pour passer d’un état à l’autre. Une collaboration avec le groupe du professeur Mathieu Luisier de l’ETH Zürich a permis de confirmer, par simulation atomistique, la justesse des propriétés du transistor tunnel de l’EPFL. « C’est la première fois que l’on descend au-dessous de ce seuil fondamental tout en obtenant plus de performance à une basse tension, contrairement à un transistor classique conçu dans le même matériau semi-conducteur 2D », indique le professeur. Grâce à cette technique de pointe, la consommation d’énergie de ce transistor s’approche de celle utilisée par les neurones du cerveau. « Nos neurones fonctionnent avec une tension électrique de 100 millivolts, soit dix fois moins qu’une pile usuelle. Notre technologie utilise moins de 300 millivolts. Elle se montre donc dix fois plus efficace qu’un transistor classique », relève Adrian Ionescu. Ce nouveau type de transistor devrait trouver une multitude d'applications dans de nombreux domaines, IA, objets connectés, vêtements intelligents, appareils numériques… Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Des scientifiques américains, de la Texas Tech University, ont développé une technique radicalement nouvelle, utilisant les propriétés aérodynamiques des ailes d’avions, pour exploiter l’énergie éolienne. Alignés dans la direction des vents dominants, sur le bord d’un toit, les appareils statiques et silencieux qu’ils ont conçus permettraient de produire autant d’énergie qu’une installation photovoltaïque couvrant l’ensemble du bâtiment. Placées dans un flux d’air, le profil de celles-ci est étudié pour créer une dépression sur la face supérieure (extrados) et une surpression sur la face inférieure (intrados). La différence de pression entre les deux faces crée alors la force ascendante (ou portance) qui permet à l’appareil de s’envoler ou de rester en altitude. Ces chercheurs ont donc eu l’idée de placer face à face, dans une soufflerie, deux profils verticaux ayant cette forme aérodynamique… et ils ont pu constater que la théorie qu’ils avaient échafaudée se vérifiait par la pratique. Quand les deux ailes sont nez au vent, la dépression créée entre leurs faces intérieures (les deux extrados) permet en effet d’aspirer de l’air au travers de trous ou de fentes pratiqués dans ces profils creux. Une turbine placée dans le conduit d’arrivée d’air permet alors de générer de l’électricité. « A l’exception de la petite turbine, il n’y a aucune pièce en mouvement ce qui simplifie la conception de cet équipement, réduit les phénomènes d’usure, les risques de pannes, les coûts de maintenance et le bruit » explique Carsten Westergaard, professeur à la Texas Tech University. La turbine peut d’ailleurs être placée à l’intérieur du bâtiment, à un endroit aisément accessible pour procéder à son entretien ou à des réparations. Brent Houchens, ingénieur en mécanique au Sandia National Laboratories, prévoit le placement d’un certain nombre de ces appareils (que leurs concepteurs ont appelé «AeroMINE»), alignés dans la direction des vents dominants, sur le bord du toit plat d’un immeuble ou d’un hall industriel. « Ainsi, sur un bâtiment, nous pouvons exploiter en même temps l’énergie du vent et du soleil » explique-t-il. « Il s’agit d’une solution qui peut s’ajouter à une installation photovoltaïque placée en toiture et qui permet, en fonctionnant aussi la nuit, d’atteindre plus facilement l’autonomie énergétique. Les deux technologies sont complémentaires, car, lorsqu’il y a beaucoup de vent, il y a souvent moins de soleil ou vice versa » ajoute-t-il. Selon ces chercheurs, une rangée d’AeroMINE raccordés en série sur la même turbine et alignés sur le bord d’un toit permettrait, dans les régions suffisamment venteuses, de produire, en un an, autant d’électricité qu’une installation photovoltaïque couvrant l’ensemble du bâtiment. Article rédigé par Georges Simmonds pour RT Flash AeroMINE | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Une étude menée par l’Université technologique de Nanyang (Singapour), a essayé de mieux évaluer le rythme de hausse du niveau des mers pour les trois prochains siècles. L’étude menée par le professeur Benjamin Horton, directeur de l’École Asiatique de l’Environnement de l’Université de Nanyang, part de deux scénarios largement connus dans le cadre des études sur le changement climatique. Un scénario dit « optimiste », dans lequel l’augmentation de la température globale d’ici la fin du siècle se limiterait à +2°C par rapport à la période pré-industrielle (scénario RCP 2.6) ; et un scénario dit « pessimiste », dans lequel l’augmentation de la température globale d’ici à 2100 atteindrait +4.5°C (RCP 8.5). Si nos émissions restent contenues, comme le prévoit l’Accord de Paris, on se rapprochera du scénario « optimiste », dans le cas contraire, on se rapprochera du scénario « pessimiste ». Les calculs menés par cette cohorte d’experts ont de quoi inquiéter en cas de non respect de l’Accord de Paris. Pour le scénario RCP 2.6 dit « optimiste », le niveau des mers et des océans pourrait monter de 30 à 65 cm d’ici 2100, et de 54 cm à 2 m d’ici 2300. Un scénario qui aurait déjà des conséquences pour les territoires en bord de mer. En cas de poursuite des émissions de gaz à effet de serre, et donc de la survenue du scénario dit « pessimiste », le niveau des océans augmenterait de 0.6 m à 1.3 m en 2100, puis de 1.7 à 5.6 m en 2300, soit des niveaux tout à fait catastrophiques. Les fourchettes prévues peuvent paraître larges, mais les sources d’incertitudes restent grandes, notamment pour des prévisions à plus de 200 ans. Le comportement des calottes glacières est notamment très difficile à calculer pour les scientifiques. Or, ces réservoirs potentiels en eau sont un moteur essentiel de l’élévation du niveau des mers. La forte différence présentée entre le scénario « optimiste » et le « pessimiste » est plutôt une bonne nouvelle pour la co-auteur de l’étude, Andra Garner, professeure de sciences de l’environnement à l’Université Rowan, qui précise, « Il y a des différences marquées entre les prévisions qui envisagent de faibles émissions et celles qui considèrent des émissions plus élevées. Cela donne de l’espoir pour l’avenir, ainsi qu’une forte motivation pour agir maintenant pour éviter les impacts les plus graves ». De plus, ces élévations très importantes prévues par les modèles doit pousser les décideurs à anticiper dès maintenant, pour éviter de se trouver au dépourvu si le pire devait effectivement se produire. En effet, des millions d'habitants habitent aujourd'hui dans des zones littorales exposées. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| La hausse du niveau de CO2 dans l’atmosphère n’a pas seulement des conséquences sur le réchauffement climatique. Cela pourrait également affecter notre capacité à penser. Selon une étude publiée le 20 avril, si les niveaux de dioxyde de carbone continuent d’augmenter au sein des espaces fermés dans les décennies à venir, nos capacités à prendre des décisions simples pourraient être réduites de manière significative. Aujourd’hui, de hauts niveaux de CO2 sont déjà observés dans une même pièce. « C’est impressionnant de voir les niveaux de concentration de CO2 dans les espaces fermés », souligne dans un communiqué Kris Karnauskas, climatologue à l’Université Colorado-Boulder (États-Unis) et auteur principal de cette étude. « Cela affecte tout le monde, des enfants assis en classe aux employés dans les bureaux, en passant par les gens dans leur maison », ajoute-t-il. « La ventilation dans les bâtiments module les niveaux de CO2, mais parfois, trop de personnes se trouvent dans une même pièce où il n’y a pas assez d’air frais pour diluer le dioxyde de carbone », détaille Shelly Miller, professeure de génie mécanique et coauteure de l’étude. Respirer de l’air avec une forte concentration en CO2 augmente le niveau de dioxyde de carbone dans le sang, réduisant la quantité d’oxygène atteignant le cerveau. Des études montrent que ce phénomène peut accentuer l’endormissement, l’anxiété, et altérer les facultés cognitives. Après plusieurs années de baisse, les émissions de CO2 des voitures neuves européennes repartent à la hausse. Mauvaise nouvelle au moment où la Chine impose des quotas de voitures électriques. Mais les conséquences sur le cerveau pourraient devenir plus importantes dans le futur. Depuis le début de la période industrielle, la concentration en CO2 dans l’atmosphère est en constante augmentation. S’il n’y a pas de réduction des gaz à effet de serre, les scientifiques du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) avancent que la concentration en CO2 en extérieur pourrait monter à 930 ppm (partie par million) d’ici à 2100. En mai 2019, un taux record de 415 ppm dans l’atmosphère terrestre avait été enregistré par l’observatoire de Mauna Loa à Hawaï (États-Unis). Les aires urbaines, quant à elles, ont généralement une concentration en dioxyde de carbone supérieure de 100 ppm à la normale. Kris Karnauskas et son équipe ont développé un modèle prédictif sur la relation entre les niveaux de dioxyde de carbone et leurs conséquences sur les facultés cognitives. Ils ont remarqué qu’une concentration en CO2 de 930 ppm en extérieur pourrait faire monter les niveaux de CO2 jusqu’à 1 400 ppm dans les espaces clos. « À ce niveau de concentration, des études ont démontré un lien avec de potentiels troubles cognitifs », précise Anna Schapiro, professeure de psychologie à l’Université de Pennsylvanie (États-Unis) et coauteure de l’étude. Article rédigé par Georges Simmonds pour RT Flash Euractiv | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des scientifiques du CNRS et de l’ENS-PSL viennent de montrer que le cerveau supprime des informations du monde extérieur, comme les bruits d’une conversation, pendant la phase de sommeil paradoxal liée aux rêves. Cette aptitude pourrait être l’un des mécanismes protecteurs des rêves. Cette étude, réalisée en collaboration avec le Centre du sommeil et de la vigilance de l’Hôtel-Dieu à l’AP-HP - Université de Paris, a été publiée dans Current Biology le 14 mai 2020. Pendant que nous rêvons, nous inventons des mondes qui n’ont rien à voir avec le calme de notre chambre à coucher. Il est même plutôt rare que des éléments de notre environnement immédiat soient intégrés à nos rêves. Pour mieux comprendre comment le cerveau se protège des influences extérieures, des chercheurs et chercheuses du CNRS et de l’ENS-PSL ont invité 18 participants à faire une grasse matinée au Centre du sommeil et de la vigilance de l’Hôtel-Dieu. En effet, le sommeil du matin est riche en rêves. Les rêves se produisent majoritairement au cours du sommeil dit paradoxal, car le cerveau est en quelque sorte réveillé pendant cette phase de sommeil et montre une activité cérébrale similaire à l’éveil. Le corps est, lui, entièrement paralysé. Entièrement ? Non : pendant certaines phases du sommeil paradoxal, les yeux continuent à bouger. Des travaux ont montré que ces mouvements oculaires étaient liés à l’occurrence de rêves. Pour étudier comment le cerveau rêveur interagit avec les sons extérieurs, les scientifiques ont fait écouter aux dormeurs volontaires des histoires en français mélangées avec une langue dénuée de sens. En combinant l’électroencéphalogramme à une technique de machine learning, ils ont confirmé que le cerveau, même endormi, continue à enregistrer ce qui se passe autour de lui. Ils ont aussi démontré que, au cours du sommeil léger, le cerveau privilégie, comme lors de l’éveil, la parole qui a du sens. Mais celle-ci est au contraire activement filtrée dans les phases de mouvements des yeux lors du sommeil paradoxal. Ainsi, notre cerveau dormant peut sélectionner les informations du monde extérieur et les amplifier ou les supprimer de manière flexible selon qu’il est plongé ou non dans un rêve ! L’équipe suppose que ce mécanisme permet au cerveau de protéger la phase de rêve, nécessaire à l’équilibre émotionnel et à la consolidation des apprentissages de la journée. S’ils sont prépondérants pendant les périodes de mouvements oculaires, les rêves peuvent aussi survenir durant d’autres phases du sommeil. Sont-ils alors accompagnés de la même suppression des sensations du monde extérieur ? Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Comme le montrent de nombreux travaux récents, loin d'être une simple variable d'ajustement dans le contrôle du poids, l'heure et le rythme des prises alimentaires jouent un rôle majeur dans la façon dont notre organisme va brûler, gérer et stocker les calories qu'il reçoit. Cela vient encore d'être démontré par des chercheurs de l'Université de Vanderbilt qui ont notamment établi que le fait de caler son alimentation plus tôt dans la journée, de manière synchronisée avec notre horloge biologique, limitait sensiblement les risques de prise de poids. Les chercheurs américains ont pu observer l'importance de l’horloge biologique quotidienne qui régule, avec le sommeil, la façon dont les aliments ingérés sont métabolisés ; ainsi le métabolisme des graisses ou le métabolisme des glucides change en fonction de l'heure de la journée. Le rythme circadien du corps le programme à brûler moins de graisses durant le sommeil : ainsi, sauter le petit-déjeuner puis compenser en grignotant la nuit, retarde la combustion des graisses. Dans cette étude, les chercheurs ont surveillé le métabolisme de participants d'âge moyen et plus âgés dans une chambre isolée au cours de 2 sessions distinctes de 56 heures, en utilisant une conception expérimentale de « croisement aléatoire ». Lors de chaque session, le déjeuner et le dîner étaient proposés aux mêmes heures, soit à 12H30 et à 17H45, respectivement, mais le moment du troisième repas différait entre les 2 groupes de participants. Ainsi, le repas quotidien supplémentaire pouvait être un petit-déjeuner servi à 8H ou une collation de fin de soirée à 22H. La durée du jeûne nocturne était identique pour tous les groupes. Enfin, la quantité ou le type de nourriture consommée ou encore les niveaux d'activité des participants. Ces expériences montrent que la séance de collation en fin de soirée réduit le métabolisme des graisses et favorise leur stockage, par rapport à la prise du petit-déjeuner ; cette étude montre également que le moment des repas au cours du cycle circadien affecte donc bien la manière dont les aliments ingérés sont brûlés et a contrario stockés. L’étude rappelle ainsi un bon principe nutritionnel : un jeûne quotidien entre le repas du soir et le petit déjeuner optimise la gestion du poids. Il est donc important, pour notre santé, de bien apprendre à coordonner nos repas avec nos rythmes circadiens. Article rédigé par Georges Simmonds pour RT Flash PLOS | | | |
| Les résultats d’une étude menée sur la cohorte prospective française NutriNet-Santé montrent qu’une forte consommation de fibres alimentaires, et en particulier de fibres solubles et de fibres issues des fruits, est associée à une diminution du risque de maladie chronique (cardio- et cérébrovasculaire, diabète, cancer) et de décès prématuré. Cette étude révèle également que 92,5 % de la population de la cohorte NutriNet-Santé n’atteindraient pas les apports quotidiens recommandés en fibres (entre 35 et 40 gr par jour, contre une consommation moyenne quotidienne de seulement 20gr). Ces fibres proviennent de différents aliments – fruits, légumes, céréales, légumineuses – qui apportent eux-mêmes bien d’autres nutriments bénéfiques pour la santé. Cependant, même après ajustement sur les antioxydants, vitamines et minéraux, les tendances restent les mêmes, ce qui montre bien que les fibres ont des bénéfices spécifiques : amélioration de la glycémie et de la réponse à l’insuline, réduction des taux du cholestérol total, dilution des agents cancérigènes et de leur temps de contact avec la muqueuse intestinale. Au total 107.377 sujets de la cohorte NutriNet-Santé ont été inclus dans les analyses. Pour chaque individu, la consommation habituelle en fibres alimentaires a été estimée par plusieurs questionnaires de la consommation sur 24h durant les deux premières années post-inclusion. L’objectif était d’évaluer les associations entre la prise de fibres alimentaires (totales, solubles, insolubles, provenant de fruits, légumes, céréales complètes, pommes de terre et tuberculeux) et le risque de maladies cardio- et cérébrovasculaires, de cancer, de diabète de type 2 et la mortalité. Le nombre moyen de recueil alimentaire par personne était de 6 sur les deux premières années de suivi. Les différentes consommations moyennes en fibres ont été évaluées à 19,5 g/j pour les fibres totales, 5,7 g/j pour les fibres solubles, 13,8 g/j pour les fibres insolubles. Sur l’ensemble de la population, 92,5 % des individus n’atteignaient pas les apports quotidiens recommandés de 30 gr de fibres/jour. 635 individus sont décédés sur un suivi moyen de 5 ans, dont 408 en lien avec une maladie cardio-, cérébro-vasculaire ou un cancer. La consommation en fibres insolubles (ceux qui en consommaient le plus versus ceux qui en consommaient le moins) était associée à une diminution significative de 35 % du risque de mortalité par cancer ou par maladie cardio- ou cérébro-vasculaire. 1.554 premiers événements cardiovasculaires ont été déclarés sur un suivi moyen de 4,7 ans. La consommation de fibres solubles (entre les plus gros consommateurs et les plus faibles) permettrait de diminuer significativement le risque de maladie cardiovasculaire de 20 %. 1.711 premiers diagnostics de cancer ont été déclarés. Sur un suivi de 4,7 ans, la consommation de fibres solubles a été associée à une diminution significative de 59 % du risque de cancer colorectal. 544 cas diagnostics de diabète de type 2 ont été recensés durant le suivi médian de 4,8 ans, le risque de diabète de type 2 a significativement diminué de 41 % grâce à une consommation élevée de fibres totales et de 23 % grâce à celle de fibres solubles. Article rédigé par Georges Simmonds pour RT Flash Univadis | | | |
| Avec 264 millions de personnes touchées dans le monde, la dépression est la maladie psychique la plus répandue. Ce trouble ne se limite pas aux seuls aspects psychologiques et implique de multiples facteurs, parmi lesquels des mutations et variations génétiques, encore mal connues. Une étude américaine a mis en évidence un gène spécifique essentiel dans la régulation de l’humeur qui pourrait expliquer pourquoi la dépression touche davantage les femmes. En effet, ces dernières seraient deux fois plus à risque que les hommes. Alors qu’un patient sur cinq ne répond pas aux antidépresseurs, ces découvertes pourraient permettre de mettre en place des traitements plus efficaces. On estime qu'environ un tiers des risques de dépression chez les deux sexes dont dus à des facteurs génétiques, et le reste à des facteurs environnementaux, principalement l'exposition au stress. Les gènes ANR non-codant long (ARNL) font quant à eux partie des facteurs épigénétiques. Il s’agit de processus biologiques entraînant des modifications de l'expression des gènes qui ne sont pas causées par des changements dans les gènes eux-mêmes. Ici, pour évaluer la contribution de ces gènes dans la dépression, des chercheurs du Mont Sinaï, à New York (Etats-Unis), ont passé au crible des milliers de molécules candidates. Grâce à la bio-informatique, ils ont pu réduire leur champ d’investigations au gène LINC00473. Ils l’ont alors exprimé dans les neurones de souris adultes et ont découvert que ce gène induisait une résilience au stress uniquement chez les femelles, qui est altéré dans la dépression féminine. Cela s’accompagnait par ailleurs de modifications de la fonction synaptique et de l’expression génétique. Dans le cortex cérébral des femmes, LINC00473 est régulé à la baisse, ce qui pourrait expliquer pourquoi ces dernières sont plus vulnérables face à la dépression, avancent les chercheurs. « Notre étude apporte la preuve de l'existence d'une nouvelle famille importante de cibles moléculaires qui pourraient aider les scientifiques à mieux comprendre les mécanismes complexes qui conduisent à la dépression, en particulier chez les femmes », explique Orna Issler, autrice principale de l'étude. « Ces découvertes sur les bases biologiques de la dépression pourraient favoriser le développement de pharmacothérapies plus efficaces pour lutter contre une maladie qui est la principale cause d'invalidité dans le monde ». Si les chercheurs se concentrent principalement sur LINC00473, ils étudient également d'autres gènes considérés comme de bons candidats. En mars 2018, une étude canadienne avait déjà mis en lumière des mécanismes génétiques contribuant à la dépression de façon différente selon les sexes. En mesurant l’intensité d’expression des gènes dans le cerveau de personnes décédées alors qu’elles étaient en dépression, les chercheurs ont découvert que les gènes affectant la fonction synaptique s’exprimaient de manière plus forte dans le cerveau des femmes. Au contraire, les gènes affectant la fonction immunitaire s’activeraient plus vivement chez les hommes. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| Depuis la cartographie complète du génome humain, achevée en 2004, il est admis que le nombre de gènes est de l'ordre de 20 000, ce qui est bien inférieur à ce qui était prévu. Toutefois, il ne s'agit que des gènes codant pour des protéines, ces assemblages d'acides aminés dont les propriétés biochimiques président à l'activité de tout être vivant. Mais il y a le reste du génome, car les gènes qui codent pour des protéines en recouvrent à peine 5 %. Ces gènes non codants peuvent-ils être considérés comme des gènes ? Oui, car la définition d'un gène ne se réduit plus au fait d'engendrer une protéine. Plus largement, un gène est une région transcrite du génome. Ce qui signifie que la séquence correspondant au gène est photocopiée en un ARN, certains de ces ARN étant ensuite traduits en protéine, quand d'autres agissent directement sur la biochimie de la cellule en interagissant avec d'autres ARN ou avec des protéines. Certains de ces gènes non codants sont d'ailleurs connus depuis les années 1950, comme les ARN dits "r" (ribosomaux) et "t" (de transfert) impliqués dans la production des protéines. Mais il ne s'agissait jusque-là que d'une petite poignée. Cette population de gènes non codants pourrait aujourd'hui, selon certaines estimations, approcher les 100 000 ! Ce qui pose une question : comment ont-ils pu si longtemps échapper aux radars des chercheurs ? En fait, il a fallu attendre l'avènement des nouvelles technologies de séquençage haut débit des ARN, à la fin des années 2000, pour révéler l'ampleur de ce phénomène. Après réanalyse des régions transcrites du génome humain, 21 856 gènes non codants ont déjà été dénombrés, soit plus que les gènes codants. Mais les estimations fluctuent selon les méthodes de séquençage et le nombre de types cellulaires explorés. Un autre facteur a aussi contribué à occulter ces gènes : leurs séquences portent rarement la trace d'une empreinte forte de la sélection naturelle. Là où 99 % des séquences de gènes codant pour des protéines sont conservées entre la souris et l'humain, ce pourcentage chute à 20 % pour les non codants. Or, seul ce qui était fortement conservé au cours de l'évolution était vu comme biologiquement utile, donc important. Aujourd'hui, en s'appuyant sur une étude menée sur 17 espèces de vertébrés, dont l'humain, des chercheurs de l'Institut Weizmann, en Israël, estiment que 70 % des gènes non codants sont apparus au sein de ces espèces au cours des 50 derniers millions d'années, chacune disposant ainsi de son répertoire propre. Le recensement des gènes non codants pose une dernière difficulté : par définition, un gène doit remplir une fonction. Or, le fait qu'une région du génome soit transcrite ne signifie pas pour autant que cette transcription joue un rôle au sein de la cellule. Certains travaux suggèrent qu'à la différence des génomes bactériens, ceux des plantes et des animaux sont sujets à une transcription tous azimuts générant un important bruit de fond. Bien qu'il soit difficile de prédire quelle sera la part de gènes non codants qui ont réellement une utilité biologique pour nos cellules, il paraît néanmoins important de les recenser. Car les seuls gènes codants ne suffisent pas pour comprendre la biologie du génome humain. Le rôle des gènes non codants se dévoile peu à peu. Il se situerait au niveau de la régulation fine des protéines, avec des effets biologiques ténus. Par ailleurs, leur activité est très dépendante du type de cellule : ils ont tendance à fonctionner de manière on/off selon l'organe auquel les cellules sont rattachées. L'enjeu médical est énorme. La plupart des études génétiques explorant les liens entre nos génomes et des maladies telles que le cancer ou le diabète détectent de nombreux signaux dans les régions en dehors des gènes codants. Un premier traitement visant à inhiber un gène non codant vital chez certaines cellules cancéreuses vient d'ailleurs d'être validé par les autorités sanitaires américaines. Et le gène non codant PCA3 est déjà utilisé pour le diagnostic du cancer de la prostate. Article rédigé par Georges Simmonds pour RT Flash Science & Vie | | | |
| Des chercheurs de l'Université du Texas Southwestern ont compris comment l’activité permet le maintien de la mémoire et réduit le déclin cognitif. « L'amélioration du flux sanguin cérébral semble être la clé d'une bonne santé céébrale », précise Binu Thomas, qui a dirigé ces travaux. Celui- ci ajoute « Il faut encourager les personnes plus âgées à suivre un programme d’exercice régulier, ce qui permettrait de réduire considérablement ou de retarder l’incidence de la démence, et notamment de la maladie d'Alzheimer, une pathologie contre laquelle il n’existe pas de traitement pharmacologique ». Plusieurs études ont récemment apporté les preuves des bénéfices de l'exercice pour la santé du cerveau, certaines recherches suggérant que la forme physique pourrait même améliorer la mémoire. L’équipe de l'UT Southwestern a cartographié les changements cérébraux après un an d'entraînement aérobie et cette analyse révèle un processus critique : l'exercice stimule le flux sanguin dans 2 zones clés du cerveau associées à la mémoire. Ce flux sanguin pourrait-il même inverser des troubles de la mémoire ? « Peut-être pourrons-nous un jour mettre au point un médicament ou une procédure qui cible en toute sécurité le flux sanguin vers ces zones du cerveau », commente l’auteur principal, le Docteur Binu Thomas, chercheur en neuroimagerie. La moitié de ces 30 participants, âgés de 60 ans ou plus et souffrant de troubles cognitifs, ont suivi 12 mois d'entraînement aérobie. Ce groupe d’intervention montre une amélioration de 47 % des scores de mémoire après un an d’entrainement vs groupe témoin. L'imagerie cérébrale confirme, chez ces participants actifs, une augmentation du flux sanguin dans le cortex cingulaire antérieur et l'hippocampe, les 2 régions neurales qui jouent un rôle clé dans la fonction de la mémoire. Article rédigé par Georges Simmonds pour RT Flash JAD | | | |
| Quelle est la région du cerveau qui contrôle la douleur ? L’équipe du professeur Fan Wang, à la Duke university (Durham-Caroline du Nord)) a peut-être trouvé la réponse. Selon ses recherches, cette région pourrait être l’amygdale, une zone du cerveau liée aux émotions, notamment à la peur et à l’anxiété. « La plupart des études précédentes se sont concentrées sur les régions qui sont activées par la douleur », souligne le chercheur. « Mais il y a tellement de zones responsables de la douleur, qu’il faudrait toutes les inactiver pour la stopper. Alors que cet endroit peut la supprimer à lui seul ». Pour comprendre le rôle de l’amygdale, Fan Wang et son équipe ont analysé les effets de l’anesthésie générale sur les neurones. Ils ont constaté qu’elle active un sous-groupe de neurones inhibiteurs situés dans l’amygdale, appelé les neurones CeAga. Ces derniers sont reliés à plusieurs autres zones du cerveau. En stimulant la douleur de manière artificielle chez les souris, ils ont pu créer une carte des zones reliées aux neurones CeAga. La douleur est une réponse cérébrale complexe, précise Fan Wang, elle implique des processus sensoriels, émotionnels et des réponses automatiques du système nerveux. L’optogénétique, une technique qui agit sur les neurones grâce à la lumière, leur a permis d’empêcher ces réponses cérébrales chez les souris. En activant les neurones CeAga, les souris ont notamment arrêté de lécher leurs pattes ou d’essuyer leur tête. « C’est radical », insiste le chercheur, « elles ont instantanément cessé de le faire ! » Les chercheurs ont également constaté que ces neurones étaient primordiaux dans l’action des anti-douleurs. La kétamine à faible dosage, utilisée comme anti-douleur, les stimule, à l'inverse, s’ils sont inactivés, son efficacité est nulle. Désormais, l’équipe de Fan Wang souhaite poursuivre ses investigations pour mettre au point un traitement capable d’activer uniquement les neurones ceAga, et ainsi proposer un nouveau type d’anti-douleur. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Depuis plusieurs années, les ultrasons sont déjà utilisés en médecine pour diminuer le volume de tumeurs situées dans diverses parties du corps, ou pour détruire la zone du cerveau en cause dans la maladie de Parkinson. Mais toutes les possibilités de ces ondes n’ont pas encore été explorées. Les ultrasons seraient en effet un moyen de défier la barrière protectrice du cerveau, la “barrière hémato-encéphalique”. Cette dernière a pour fonction de filtrer les toxines et les agents pathogènes et de laisser passer les nutriments mais elle empêche par la même occasion tout traitement sur le cerveau. « L’évolution nous a donné cette barrière parce que le système nerveux central doit être protégé. Le problème est maintenant que nous voulons délivrer quelque chose à ces cellules. (…) Donc j’essaie de contourner la biologie avec de la physique », déclare Richard J. Price, directeur des recherches et professeur à l’Université de Virginie. L’approche des chercheurs de l’Université de Virginie consiste à diriger des milliers de faisceaux d’ultrasons sur une même zone. Le cumul de ces ondes sonores augmente la température, brûle les tissus visés et permet de franchir la barrière protectrice. Il est alors possible d’administrer directement un traitement au système nerveux central sans toucher au crâne du patient. « Nous voulons seulement ouvrir la barrière hémato-encéphalique à un endroit. Nous ne touchons même pas les 95 % restants du cerveau », détaille Richard J. Price. « Quand nous appliquons les ultrasons focalisés, ils ouvrent la barrière à cet endroit pendant quelques heures. Cela nous permet de recourir à la thérapie génique pour faire pénétrer des gènes dans les cellules défectueuses et de les traiter. Ensuite, la barrière se referme naturellement ». Article rédigé par Georges Simmonds pour RT Flash University of Virginia | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|