| | | | | | | Edition du 26 Juillet 2019 |
| |
|
| Edito Le cerveau n’en finit de révéler sa prodigieuse complexité
Chers lecteurs, Comme chaque année, notre petite équipe se met au vert et prend un peu de repos pendant le mois d'août. Je tiens à vous remercier chaleureusement pour votre soutien et votre fidélité à notre lettre, depuis maintenant plus de 20 ans. Vous retrouverez RTFlash le vendredi 6 septembre, pour son numéro de rentrée. D'ici là, nous vous souhaitons d'excellentes vacances, pleines de lectures scientifiques passionnantes... Bien cordialement René Trégouët Directeur de publication Cette semaine, je reviens une nouvelle fois sur une question scientifique que nous abordons régulièrement dans notre lettre, mais dont l’intérêt et la richesse semblent inépuisables : la connaissance du cerveau humain. Rappelons-le, le cerveau humain est considéré par la communauté scientifique comme l’objet le plus complexe de l’univers. Cet organe, bien qu’il pèse à peine 1,5 kg, ne contient pas moins de 100 milliards de neurones (et quatre fois plus de cellules gliales) reliés entre eux par des millions de kilomètres d’axones (longs prolongements des neurones) et un million de milliards de synapses. Dans un seul millimètre cube de cerveau, on trouve pas moins de 100 000 neurones, 4 kilomètres d’axones et 1 mètre de capillaires sanguins ! Depuis une trentaine d’années, des pas de géants ont été accomplis dans la connaissance du fonctionnement de notre cerveau, notamment grâce à l’utilisation massive de nouveaux outils d’imagerie (imagerie par résonance magnétique, tomographie par émission de positons, magnétoencéphalographie, microscopie confocale…) qui ont permis d’étudier le cerveau à diverses échelles spatiales et temporelles, de la cellule unique au réseau neuronal, de quelques millisecondes à plusieurs décennies. On commence enfin à mieux comprendre comment le cerveau perçoit et interprète le monde, et comment il ne cesse de se reconfigurer tout au long de la vie, faisant preuve d’une plasticité qui semble sans limite. On sait également à présent que la variabilité du fonctionnement des neurones et des synapses est liée à l’expression différente de nombreux gènes, qui commencent à être identifiés. Il est également établi que la reconfiguration permanente du cerveau se manifeste à tous les niveaux de son organisation, de la synapse au cortex entier. Les mécanismes par lesquels nous mémorisons, indexons et stockons les nombreuses informations que nous avons à traiter en permanence sont également mieux compris. Loin de fonctionner comme une bibliothèque, avec ses livres rangés de façon statique, notre cer veau apprend et mémorise sur un mode essentiellement dynamique, en construisant sans cesse de nouvelles connexions synaptiques et en établissant de nouveaux circuits de neurones. Depuis quelques mois, plusieurs découvertes scientifiques majeures sont venues élargir et enrichir notre connaissance encore bien fragmentaire du cerveau humain. La première concerne un vieux débat : le cerveau humain fabrique-t-il ou non de nouveaux neurones tout au long de sa vie ? L’idée que le cerveau humain adulte ne produit plus de nouveaux neurones a été émise par le célèbre scientifique catalan Santiago Ramon y Cajal, découvreur du neurone et Nobel de physiologie et de médecine en 1906. Mais ce vieux dogme de biologie a été invalidé en 2000, quand l’équipe américaine de Peter Eriksson et Fred Gage a découvert que des nouveaux neurones étaient générés dans le gyrus denté jusqu’à 72 ans. Depuis, de nouvelles études contradictoires ont été publiées, les unes confirmant cette théorie, les autres établissant au contraire que la neurogenèse se poursuit jusqu’à un âge avancé. L’année dernière, de nouveaux travaux américains dirigés par Arturo Alvarez Buylla (Université de Californie San Francisco) et publiés dans la revue Nature arrivaient à la conclusion que la fabrication de nouveaux neurones par le cerveau humain culminait pendant l’enfance, avant de chuter une fois adulte. C’est dans ce contexte que l’étude publiée le 25 mars dernier dans la revue « Nature » prend toute son importance. Dans ces recherches menées par l’équipe de María Llorens-Martín, du centre de biologie moléculaire Ochoa de Madrid, les scientifiques ont voulu analyser de manière très complète les tissus cérébraux de 13 personnes décédées, âgées de 43 à 87 ans, qui étaient toutes en bonne santé neurologique au moment de leur mort. Ils ont découvert que si leur cerveau contenait bien de nouveaux neurones, le nombre de ces cellules cérébrales diminuait progressivement avec l’âge. Ainsi, entre 40 et 70 ans, le nombre de neurones « neufs » détectés dans l’hippocampe passe de 40 000 à 30 000 par millimètre cube. Se lon ces travaux, il semblerait donc que notre cerveau soit bien en mesure de produire tout au long de la vie de nouveaux neurones, même si cette capacité semble s’amenuiser avec l’âge. Cette réduction progressive du nombre de nouvelles cellules cérébrales semble également être associée au déclin cognitif qui accompagne souvent (mais pas toujours) le vieillissement (Voir Nature). La même équipe a en effet analysé également les cerveaux de 45 personnes âgées de 52 à 97 ans, chez qui on avait diagnostiqué la maladie d’Alzheimer avant leur décès. Ces chercheurs ont pu observer que le cerveau de tous les sujets présentait bien de nouvelles cellules cérébrales, y compris pour les sujets les plus âgés. Mais l’observation la plus intéressante réalisée par ces scientifiques est que la neurogenèse était très différente chez les personnes saines et chez les sujets atteints d’Alzheimer. En effet, chez ces derniers, même chez ceux qui en étaient au tout début de la maladie (et ne manifestaient encore aucun symptôme), la production de nouveaux neurones était réduite de plus d’un tiers, par rapport aux sujets en bonne santé cérébrale. "Cette découverte est très importante car elle montre de façon solide que le nombre de cellules que vous détectez chez des sujets sains est toujours supérieur au nombre détecté chez les patients atteints de la maladie d'Alzheimer, quel que soit leur âge", explique le Professeur Llorens-Martín. Cette découverte suggère qu'un mécanisme indépendant, différent du vieillissement physiologique, pourrait entraîner ce nombre décroissant de nouveaux neurones. Il y a quelques semaines, en Mai, une équipe française de l’Inserm, dirigée par Christophe Bernard, a, pour sa part décrit pour la première fois le comportement et le langage des neurones qui assurent la consolidation de la mémoire pendant le sommeil. Ces chercheurs ont eu la surprise de constater que le rôle des neurones varie rapidement dans le temps et que les itinéraires empruntés par les informations changeaient sans cesse. Ces chercheurs ont utilisé des électrodes afin de pouvoir enregistrer l’activité électrique d’une centaine de neurones concentrés dans une région donnée. Trois zones connues pour être impliquées dans la mémoire ont été enregistrées chez des rats pendant leur sommeil : l’hippocampe, le cortex préfrontal et le cortex entorhinal. Comme le souligne Christophe Bernard, « D’après la régularité des ondes dans l’encéphalogramme, nous imaginions que les neurones fonctionnaient selon un schéma bien précis et répétitif pour transmettre les informations ou les stocker. Or les enregistrements montrent qu’il n’en est rien ». Ces scientifiques ont en effet montré que des ensembles de neurones sont capables de s’interconnecter très rapidement pour stocker et transmettre de l’information, et se relaient en permanence. Autre découverte, au sein de chacun de ces ensembles, seuls quelques neurones jouent un rôle prépondérant. « Nos travaux ont montré qu’il ne semble pas y avoir de hiérarchie établie au sein des neurones, mais plutôt une répartition équilibrée des rôles &raq uo;, explique Christophe Bernard. Une autre découverte majeure réalisée par cette équipe est que l’information ne suit pas toujours le même chemin. « Nous avons été très surpris de constater que, contrairement à ce que nous pensions, le transfert de l’information ne suivait pas un trajet fixe, mais empruntait des itinéraires qui se modifiaient en permanence, de manière à optimiser la capacité du réseau à acheminer l’information, exactement comme sur l’Internet », souligne Christophe Bernard. Enfin, ces travaux ont permis de montrer qu’il existait un véritable « langage » des neurones avec des « mots », correspondant à des sous états, et des « phrases », correspondant à des séquences de sous-états. Le sens profond de ce langage &ea cute;chappe pour l’instant aux chercheurs mais il est clair qu’il permet, grâce à sa complexité, d’optimiser le traitement de l’information. En Juin, c’est un autre dogme solide des neurosciences qui a été sérieusement ébranlé par une étude américaine. Des chercheurs de l’Université Yale ont en effet montré que, contrairement à la théorie dominante qui voulait que le centre de la prise de décision se situe dans le cortex frontal de notre cerveau, le siège de la pensée supérieure, il y aurait en fait trois circuits cérébraux distincts se connectant à différentes régions du cerveau, l'amygdale ou les noyaux accumbens, et qui semblent impliqués dans la prise de décisions et la mémorisation de ces décisions. Pour arriver à cette conclusion, les chercheurs ont étudié les cerveaux de rats alors qu'ils avaient des choix à faire entre des actions menant ou non à des récompenses. Ils ont observé qu'un circuit « bon choix » est activé lorsque l'action conduit à une récompense. Un autre circuit, le circuit « mauvais choix », est activé lorsque l'action ne conduit pas à une récompense. Et un troisième circuit, le circuit « mémoire », permet de prendre des décisions telles que de refaire une action ayant plusieurs fois conduit à une récompense, même si cela n'a pas été le cas au cours de la dernière action. Ces chercheurs forment l'hypothèse que des altérations de ces circuits pourraient expliquer pourquoi certaines personnes continuent à faire de mauv ais choix, même après une succession d'expériences négatives. Une autre découverte très intéressante réalisée récemment concerne les différences fondamentales qui existent entre le fonctionnement de notre cerveau et celui de nos cousins les primates, en dépit d’une structure biologique extrêmement proche (Voir Nature). On le sait, notre cerveau est également le fruit d’une longue et passionnante évolution, qui a sans doute commencé il y a plus de sept millions d’années, quand sont apparus les premier Hominiens, distincts des primates. D’après une étude parue il y a deux mois, la façon dont le cerveau humain et celui des macaques reçoit le son diffère fondamentalement. Selon cette étude, au fil de l’évolution, notre cerveau aurait évolué pour finalement préf&eacu te;rer la musique et la parole au bruit, contrairement à celui du singe, incapable de faire la différence. Pour en arriver à cette conclusion, les chercheurs ont travaillé avec trois macaques rhésus et quatre humains. Ils leur ont fait écouter des tons harmoniques et des bruits comportant cinq gammes de fréquences différentes. A l’aide d’images d’IRM, ils ont mesuré les réponses cérébrales et montré que, bien que ce soit les mêmes parties du cortex auditif qui sont activées chez les deux espèces, les cerveaux humains étaient bien plus sensibles aux "pics" dans les tons harmoniques que les animaux, qui ne semblaient pas les distinguer du bruit normal. Or, ces fréquences harmoniques faites de "pics" ou "hauteurs tonales" sont précisément les éléments spécifiques qui caractérisent la parole et la musique, explique l’étude. Ces résultats laissent donc penser que ces sons, qui font partie de la mus ique et de la parole, pourraient avoir puissamment contribué à la structuration du cerveau humain. Une précédente étude comparative avait déjà montré des différences fondamentales de perception auditive entre l’homme et le singe. Les chercheurs avaient ainsi pu observer que le cortex préfrontal ventrolatéral n'est pas relié de la même manière aux zones cérébrales impliquées dans l'audition chez les animaux. Selon cette étude, cette différence expliquerait pourquoi les macaques ont beaucoup de difficultés à passer certains tests d’audition. Ces découvertes confortent également l’hypothèse selon laquelle l’homme a progressivement développé la capacité d’utiliser ce qu’il entendait pour réaliser des fonctions cognitives intellectuelles complexes, ce que les macaques semblent incapables de faire. La dimension sociale et relationnelle du cerveau, qui s’est développée à un niveau unique chez notre espèce, fait également l’objet de nombreuses recherches. Il est établi depuis longtemps que, sans que nous en ayons conscience, lorsque nous avons un échange de conversation avec quelqu’un, nous lui envoyons des signaux à travers nos gestes, nos intonations, notre posture corporelle. Nous avons également tous ressenti que, dans certains échanges, nous avions le sentiment d’être parfaitement en phase avec notre interlocuteur, sur la "même longueur d'onde", comme le dit l'expression populaire. Cette impression profonde n’est pas illusoire et repose sur des fondements neurobiologiques bien réels, comme le rôle des fameux « neurones miroirs ». Au fil de l’évolution, il semble que l’homme ait développé, pour o btenir un avantage compétitif décisif dans un environnement hostile, cette extraordinaire capacité d’ajuster, de synchroniser ses émotions et ses réactions physiologiques sur celles de ses interlocuteurs. L’équipe américaine de Greg Stephens, de l’Université de Princeton, a réussi à montrer qu’au cours d’une conversation en situation naturelle, l’activité cérébrale de l’auditeur se synchronise spatialement et temporellement avec celle du locuteur. Les mêmes chercheurs ont également montré que, comme nous en avons tous fait l’expérience dans certaines situations, l’activité cérébrale de l’auditeur est parfois légèrement en avance sur celle du locuteur, comme si la personne qui écoutait quelqu’un parler était capable d’anticiper ce qui va être dit ! Récemment, en utilisant la technique d’hyperscanning, qui consiste à enregistrer simultanément l’activité de deux cerveaux en interaction, une équipe de recherche de l’Université d’Aachen, en Allemagne, a étudié comment les cerveaux de parents et d’enfants âgés de 5 à 9 ans se synchronisent au cours d’un jeu. Les enfants devaient soit jouer avec un adulte de manière coopérante, soit jouer contre l’adulte de manière compétitive, et cet adulte pouvait être leur parent ou un étranger. Les résultats montrent clairement un couplage de l’activité cérébrale au niveau de l’activité préfrontale qui apparaît à la condition que l’enfant coopère avec l’un de ses parents. Ces expériences ont en revanche montré qu’un tel couplage n 217;était pas observé lorsque l’enfant interagit avec son parent dans une situation de compétition ou avec un adulte étranger. Evoquons enfin, pour terminer ce rapide tour d’horizon des avancées en matière de neurosciences, une étude publiée il y a quelques semaines, intitulée « Comment l’Internet modifie le fonctionnement de notre cerveau » (Voir Wiley). Cette étude réalisée par des chercheurs britanniques, australiens, américains et belges montre que, contre toute attente, savoir faire plusieurs choses à la fois (le "multitasking" en anglais) sur Internet ne signifie pas savoir faire plusieurs choses à la fois dans la vie réelle. Il semble contraire que le multitasking digital pousse plutôt à être attentif à de nouvelles distractions. Les chercheurs soulignent que le flux permanent d’informations numériques qui nous traversent a tendance à fragmenter notre attention et à réduire notre capacité d’attention à une seule et unique tâche. Selon les résultats de cette étude, le cerveau semble considérer les interactions sociales virtuelles de la même façon que les interactions sociales réelles. Cette réalité peut être bénéfique pour les populations plus âgées, qui parfois font face à des problématiques d’isolement. En revanche, cette étude souligne que les sujets plus jeunes semblent beaucoup plus sensibles aux conséquences découlant des interactions sociales en ligne, notamment le regard de leurs semblables. Cependant, les auteurs de l’étude notent que les réseaux sociaux peuvent aussi être util isés, dans certaines situations, comme des formes de thérapie pour les jeunes souffrant de troubles psychologiques ou psychiatriques. « Les résultats de cette étude montrent à quel point nous avons à apprendre de l’impact du monde digital sur notre santé mentale et cérébrale », explique le Docteur. John Torous, co-auteur de l’étude et chercheur à Harvard. Au-delà de leur grande diversité, il est frappant de constater à quel point l’ensemble des études et travaux que je viens d’évoquer convergent pour confirmer que la prodigieuse complexité et l’extraordinaire plasticité de notre cerveau ne peuvent plus aujourd’hui être appréhendées hors des dimensions sociales, relationnelles, affectives, historiques, qui caractérisent notre espèce humaine. Inséparable de notre corps, de nos affects, de notre existence singulière, de notre environnement socioculturel et de la longue et foisonnante évolution de notre espèce, notre cerveau apparaît plus que jamais comme une fabuleuse machine à interpréter et reconstruire le monde, et à lui donner un sens cohérent, tant au niveau individuel que social. Le paradigme biologique trouve ici ses limites et les grandes avancées dans la connaissance de notre cerveau ne peuvent se faire qu’en ayant toujours à l’esprit la nature anthropologique, philosophique et symbolique de toute connaissance, mais aussi de toute action, comme l’ont magistralement montré des penseurs tels que le regretté Michel Serres, ou encore Edgar Morin. Gageons que ce siècle sera riche d’extraordinaires avancées dans la compréhension de notre cerveau mais ne parviendra pas à épuiser son infinie richesse, ni à dissiper ses mystères insondables. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | Le diabète de type 1 est une maladie contraignante, qui impose des injections quotidiennes d’insuline ou des régimes alimentaires stricts à vie. Dans le but d'alléger les traitements, entre autres, des chercheurs du géant américain IBM ont mis au point une technique d’intelligence artificielle pour détecter la pathologie… avant même qu’elle n’ait produit ses premiers effets ! Une percée dans le cadre du diagnostic médical, alors que la plupart des patients découvrent encore leur maladie de manière tardive et que leurs cellules sont déjà endommagées. Dévoilée lors d’un sommet de l’American Diabetes Association début juin 2019, l’IA d’IBM serait capable de cartographier la présence d’anticorps dans le sang. Une solution permettant de déterminer précisément le moment ainsi que la manière dont la pathologie pourrait émerger chez un patient. Si une personne atteinte de diabète affiche aujourd’hui la même espérance de vie qu’un individu lambda, l’IA développée par IBM pourrait prévenir la dégradation cellulaire. "Notre base de données est alimentée par 22 000 patients aux quatre coins des Etats-Unis, de Suède et de Finlande", a indiqué Jianying Hu, responsable des services de santé d’IBM Research. D'autres cas devraient la compléter courant 2019, en Allemagne. Ce programme a permis de pointer des similitudes dans la progression de la maladie chez les patients. "L’intérêt principal de modèles de machine learning dans le cadre du diabète de type 1 est d’identifier les individus à suivre scrupuleusement", explique Jianying Hu, dont l’équipe a travaillé sur ce projet pendant plus d’un an. "Cette IA pourrait ainsi permettre aux médecins de déterminer la date limite à laquelle un patient devrait se faire examiner à nouveau." Article rédigé par Georges Simmonds pour RT Flash Engadget | | | |
| Des chercheurs américains de l'Université Carnegie Mellon, à Pittsburgh, sont parvenus à prédire avec une surprenante précision la formation de la structure de l’Univers, à l'aide d' un réseau de neurones profonds. Le simulateur, nommé D3M (Deep Density Displacement Model), donne des résultats précis sur lesquels il n’a pas été formé et c’est ce qui impressionne les chercheurs. À titre d’exemple, il a indiqué la quantité de matière noire dans l’Univers, sans que personne ne le lui apprenne via le machine learning. Selon Shirley Ho, une des coauteurs de l’étude : « c’est comme enseigner un logiciel de reconnaissance d’image avec beaucoup d’images de chats et de chiens, mais ensuite, il est capable de reconnaître les éléphants. Personne ne sait comment cela se passe, et c’est un grand mystère à résoudre ». Une particularité peut-être inexplicable pour le moment, mais qui permet aux astrophysiciens de combler certaines de leurs lacunes en termes de connaissances du cosmos. Article rédigé par Georges Simmonds pour RT Flash PNAS | | ^ Haut | |
|
| | | Sera-t-il bientôt possible de remplacer les éléments de refroidissement des voitures et des réfrigérateurs, ou des matériaux de dissipation de la chaleur des ordinateurs et téléphones portables, par des alternatives plastiques légères, flexibles, résistantes à la corrosion. Peut-être, si l'on en croit des chercheurs du MIT qui travaillent sur le développement de polymères à forte conductivité thermique depuis des années. Ces derniers ont réussi à fabriquer des feuilles de polyéthylène dont la conductivité atteint 60 W/m/K alors que la plupart des polymères atteignent des conductivités de l’ordre de 0,1 à 0,5 W/m/K. Une conductivité exceptionnelle, meilleure que celle de l’acier (environ 15) ou des céramiques (environ 30). En 2010, la même équipe avait déjà montré que l’on pouvait fabriquer des fines fibres de polyéthylène 300 fois plus conductrices de chaleur que le polyéthylène classique et aussi conductrice que la plupart des métaux. Mais évidemment, de la fibre d’un diamètre 100 fois plus petit que celui d’un cheveu à des films manipulables, il y avait un pas technologique à franchir. Les chercheurs se sont donc tournés vers la fabrication d’une feuille plutôt que d’une fibre. Après plusieurs années de développement, ils ont réussi à fabriquer des films de polymères très fins en partant d’une poudre de polyéthylène que l’on trouve sur le marché. La structure moléculaire du polyéthylène peut être comparée à des longues chaînes de molécules qui s’emmêlent les unes les autres en formant des amas et des nœuds. Ce désordre moléculaire explique notamment que la chaleur ne soit pas transmise rapidement. Les chercheurs ont donc cherché une méthode de fabrication qui mette de l’ordre dans cet assemblage, en créant des chaînes de molécules parallèles les unes aux autres, supprimant au maximum les nœuds. La poudre de polyéthylène a été dissoute dans une solution qui force les chaînes enroulées à s’étendre et se démêler. Une machine spécialement conçue a été mise au point pour que la solution soit expulsée dans un flux favorisant encore la formation de ces chaînes parallèles. La solution est alors immédiatement placée sur une plaque refroidie à l’azote liquide. Elle forme un film assez épais qui sera étiré sur une machine à rouleaux jusqu’à ce que le film soit plus fin que qu’un film d’emballage. L’équipe a ensuite construit un appareil pour tester la conduction thermique du film et a analysé la structure nanoscopique du matériau au synchrotron à rayons X à l’Advanced Photon Source du laboratoire national d’Argonne. L’observation a permis de confirmer que les films ayant la meilleure conductivité thermique présentaient des nanofibres avec des chaînes les moins enroulées et emmêlées. Mais ce film présente une autre particularité : il ne conduit la chaleur que dans le sens de la longueur des chaînes. L’évacuation de la chaleur est donc unidirectionnelle. Cette caractéristique peut être utile pour des appareils électroniques par exemple… Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| Produire du kérosène à partir d’air et de soleil. Voilà ce que réalise l’installation expérimentale inaugurée le 13 juin dernier à Móstoles, près de Madrid, par l’Institut IMDEA Energy, partie prenante du projet européen Sun to Liquid, lancé en 2016. Une démonstration, inédite en conditions réelles, d’un cycle thermochimique transformant le CO2 et l’eau extraits de l’air en hydrocarbures. Avec à la clé un bilan carbone réduit de plus de 90 % par rapport à un carburant d’origine fossile. Le processus se décompose en deux étapes : la production, à partir de l’air, de syngaz – gaz synthétique mélange d’hydrogène et de monoxyde de carbone – puis sa conversion en carburant liquide par le procédé éprouvé Fischer-Tropsch (FT). Si la micro-unité FT développée par les chercheurs est indispensable au système, leur tour de force a été de maîtriser la production de syngaz à partir de l’eau et du CO2 extraits de l’air par un processus d’absorption-désorption. Une production qui passe par un cycle de réactions d’oxydoréduction nécessitant un matériau rédox-actif et une température de 1 500°C. Le premier défi a donc été d’identifier le matériau rédox-actif le plus adapté et à en optimiser les performances. Les chercheurs ont misé sur une céramique poreuse réticulée faite de dioxyde de cérium. Ce matériau peut libérer une grande partie de ses atomes d’oxygène tout en conservant sa structure à de très hautes températures. Une structure poreuse, qui permet de faciliter le flux de gaz et le transport de l'énergie thermique en son sein. Cette céramique tapisse l’intérieur du réacteur chimique conçu par les chercheurs, qui consiste en une cavité cylindrique coiffée d’une fenêtre en quartz laissant passer la lumière. C'est en effet l'énergie du Soleil qui est utilisée pour atteindre les 1500°C nécessaires à la réaction. Et ce, grâce à un champ d'héliostats (miroirs mobiles) concentrant le rayonnement solaire sur le réacteur, situé sur une tour, jusqu'à atteindre un flux lumineux 2500 fois plus élevé que celui du Soleil. D’une puissance de 50 kW, l’installation madrilène va être testée jusqu’en novembre. Une phase d’expérimentation qui va permettre aux chercheurs « d'accumuler autant de cycles que possible avant la fin, en décembre, du projet Sun to Liquid », espère Manuel Romero, directeur adjoint de l’Institut IMDEA Energy. Le chercheur compte aussi sur ses confrères de l'Ecole polytechnique fédérale de Zürich (RTH), qui ont développé la technologie et opèrent une micro-installation pilote, pour continuer d'étudier le procédé. La prochaine étape consistera à passer la technologie à l'échelle industrielle. « Une centrale solaire couvrant une surface d’un kilomètre carré pourrait produire 20 000 litres de kérosène par jour », avance dans un communiqué Philipp Furler, directeur technique de Synhelion. Article rédigé par Georges Simmonds pour RT Flash Industrie&Technologies | | | |
| Après trente ans de recherches, les chimistes de Harvard et la société pharmaceutique japonaise Eisai ont réussi à synthétiser l'halichondrine. Présente naturellement dans les éponges de mer, en très faibles quantités, l'halichondrine est connue pour être un agent anticancéreux. Mais cette molécule est si complexe qu'elle n'avait jamais pu être synthétisée en laboratoire. L'équipe de Yoshito Kishi, professeur du département de chimie de Harvard, a plus précisément synthétisé des quantités suffisantes d'E7130, un "médicament potentiel" issu de la classe des halichondrines. Dans des études précliniques, des chercheurs japonais avaient déjà identifié en 1986 ce composé comme un agent prometteur pour cibler la tumeur. Cette molécule est en réalité particulièrement difficile à fabriquer du fait qu'elle possède 31 centres de chiralité, c'est-à-dire 31 points qui définissent comment elle s'oriente dans l'espace. D'après les scientifiques, il existait donc environ "quatre milliards de façons de se tromper". "C'est une réussite sans précédent, car personne n'avait été capable de produire des halichondrines à l'échelle de 10 grammes. Un milligramme, c'est tout", développe Takashi Owa, co-auteur de l'étude et responsable de la création de médicaments de la société pharmaceutique japonaise Eisai, collaboratrice du projet. Des études in vitro et in vivo sur des souris ont ainsi été lancées pour mieux comprendre son mode d'action. Il semblerait que la molécule soit belle et bien inhibitrice de la dynamique des microtubules, des molécules importantes pour la division des cellules. Pour rappel, les tumeurs se développent à la suite d'un dérèglement de la croissance cellulaire. Il existait déjà des traitements capables de cibler les cellules cancéreuses, comme le paclitaxel ou la vinblastine. Mais il semblerait que ce composé soit bien plus performant, bien qu'il n'ait pas encore été testé sur des humains. L'équipe de chercheurs espère désormais entamer un deuxième essai clinique aux États-Unis. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Les abeilles ne sont pas seulement utiles aux humains en tant que productrices de miel, mais aussi en tant que pollinisatrices de fleurs sauvages et de cultures. Elles se nourrissent exclusivement de nectar et de pollen et souffrent donc de la faible disponibilité en fleurs en mai et juin entre les périodes de floraison du colza et du tournesol, comme cela est typique dans les paysages agricoles très intensifs. Au cours de cette période, la collecte de pollen, la production de miel et la croissance des colonies diminuent. Une étude qui vient d’être publiée dans Journal of Applied Ecology montre que l'agriculture biologique peut atténuer ce déclin. Les parcelles cultivées en agriculture biologique offriraient en effet aux abeilles domestiques plus de ressources, notamment par la présence d’adventices (que l’on appelle à tort « mauvaise herbe »), notamment. Les chercheurs ont trouvé jusqu'à 37 % de couvain, 20 % d'abeilles adultes et 53 % de miel supplémentaires dans les colonies entourées de parcelles agricoles biologiques par rapport aux colonies situées dans des paysages agricoles conventionnels en examinant durant six ans près de 180 ruches dans le centre-ouest de la France. Ceci suggère que la présence de parcelles en agriculture biologique peut produire différents effets. L'augmentation de la production de couvain destiné à devenir des ouvrières peut être due à une plus grande diversité de ressources en pollen et à une diminution de la mortalité due aux pesticides à l'échelle locale. Les réserves en miel peuvent augmenter en raison de la disponibilité accrue de fleurs mellifères à une plus grande échelle spatiale, qui correspond à celle où les abeilles cherchent des ressources (entre 1 et 3 km en zones de grandes cultures). Cette étude a été rendue possible grâce au dispositif unique de suivi des colonies d'abeilles Ecobee (Inra/CNRS). Il permet chaque année de mesurer l’effet des pratiques agricoles dans des conditions réelles sur 50 ruches expérimentales dans le sud-ouest de la France. Des recherches antérieures menées par la même équipe montraient que la baisse de la production de couvains d'ouvrières au cours de la période où les fleurs sont rares conduisait à une diminution de la survie des colonies en hiver. Cette nouvelle étude suggère que l'agriculture biologique peut atténuer les effets négatifs de l'agriculture intensive et augmenter la survie de ces pollinisateurs essentiels que sont les abeilles. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Selon une vaste étude épidémiologique britannique, le fait de démarrer une activité physique régulière, y compris entre l'âge moyen et le troisième âge, permet d'augmenter sensiblement son espérance de vie. Ce travail réalisé par des chercheurs de l'Université de Cambridge montre que près d'un décès sur deux (46 %) lié à l'inactivité physique pourrait ainsi être évité avec une heure et demie par semaine d'activité physique d'intensité modérée. Mais cette étude a également examiné la relation entre les changements d'activité physique au fil du temps et le risque de décès toutes causes confondues, cardiovasculaires et par cancer. Des chercheurs de l'Université de Cambridge ont utilisé les données de près de 15 000 hommes et femmes âgés de 40 à 79 ans recrutés entre 1993 et 1997. Les participants ont été évalués au début de l'étude, puis trois autres fois sur une durée moyenne de 7,6 ans jusqu'en 2004. A partir de cette année, la mortalité au sein de ce groupe a été évaluée jusqu'en 2016. Au cours de la durée de l'étude, 3 148 décès ont été enregistrés dont 950 par maladie cardiovasculaire et 1091 par cancer. Résultat, les chercheurs ont constaté que chez les personnes inactives au début de l'étude et qui avaient développé une activité physique régulière sur une période de 5 ans, le risque de décès par toutes causes était inférieur de 24 %, le risque de décès cardiovasculaire réduit de 29 % et le risque de décès par cancer de 11 %. Les effets positifs de l'activité physique enregistrés ont été similaires chez les personnes avec ou sans antécédent de maladie cardiovasculaire ou de cancer. Et surtout, par rapport aux personnes constamment inactives, celles qui avaient développé leur activité physique au fil du temps présentaient un risque de décès moins élevé toutes causes confondues, quel que soit le niveau d'activité passé. La diminution du risque de décès a même atteint 42 % pour ceux qui avaient déjà une activité physique importante et qui sont devenues encore plus actives. "Ces résultats sont encourageants, en particulier pour les adultes d'âge moyen et plus âgés atteints d'une maladie cardiovasculaire ou d'un cancer qui peuvent gagner beaucoup en longévité en devenant plus actifs", soulignent les chercheurs de l'Université de Cambridge. Article rédigé par Georges Simmonds pour RT Flash BMJ | | | |
| C'est une étude qui fera date dans la lutte contre le SIDA, et qui confirme que l'outil d'édition génétique CRISPR/Cas-9 ouvre d'immenses perspectives thérapeutiques, comme vient encore de le montrer ce travail réalisé par l’équipe de Kamel Khalili, de l'Université Temple, à Philadelphie en Pennsylvanie. Ces chercheurs américains sont en effet parvenus à purger entièrement le virus du génome de l’animal. Un exploit sans précédent jusque-là, même si l’expérience n’a réussi que pour environ un tiers des souris. Il s’agit d’une première aussi retentissante, et particulièrement encourageante par rapport à une future application à l’homme. Pour tester sa technique sur les rongeurs, l’équipe de Khalili utilisé la bio-ingénierie pour produire des souris disposant de lymphocytes T « humanisés », les rendant ainsi susceptibles d’être infectés par le VIH. Ils ont donc pu tester leur technique sur des souris, mais dans des conditions qui se rapprochent de celles présentes chez les humains. Sur 29 souris, les chercheurs n'ont trouvé aucune trace du virus sur 30 % des animaux. Pour déterminer que le virus est éliminé d'un organisme, des tests doivent être réalisés dans plusieurs parties de la souris : le sang, le tissus lymphatique, la moelle épinière ainsi que le cerveau. Tous ces tests se sont avérés négatifs sur environ un tiers des spécimens observés. Plus intéressant encore, "aucun dommage collatéral généré par CRISPR-Cas9 n'a été détecté", assure l'étude. Les ciseaux génétiques, s'ils permettent de cibler certains gènes, peuvent entraîner des mutations "en cascade" non souhaitées sur le reste du génome. "Au fil des ans, nous avons considéré le VIH comme une maladie infectieuse. Mais une fois qu'il pénètre dans la cellule, il ne s'agit plus d'une maladie infectieuse, mais devient une maladie génétique car le génome viral est incorporé dans le génome de l'hôte", explique l'un des auteurs principaux de l'étude, Kamel Khalili, directeur du centre de neurovirologie et du Centre complet de neuroAIDS à l'université de Temple à Philadelphie. Son équipe teste désormais cette technique chez les primates non-humains afin de voir si elle produit les mêmes résultats. Article rédigé par Georges Simmonds pour RT Flash Temple | | | |
| Les causes de la sclérose en plaques sont encore mystérieuses. Les scientifques pensent que son déclenchement découle d’une part d’une composante génétique, et d’autre part d’une composante environnementale. Mais laquelle ? Dans un modèle murin de la maladie, des chercheurs de l’Université de Genève (UNIGE) et des Hôpitaux universitaires de Genève (HUG) ont étudié le lien potentiel entre les infections virales cérébrales transitoires survenues lors de la petite enfance et l’apparition d’une maladie auto-immune cérébrale plus tard dans la vie. En effet, la zone cérébrale touchée dans l’enfance subit une modification des tissus qui appelle, des années plus tard, le système immunitaire à se retourner contre lui-même à cet endroit précis, déclenchant les lésions auto-immunes. Ces résultats, à lire dans la revue Science Translational Medicine, donne un premier élément de réponse sur l’une des causes possibles de cette grave maladie. La sclérose en plaques touche en Suisse une personne sur 1000, dont deux tiers de femmes. Il s’agit de la maladie auto-immune cérébrale la plus fréquente. Aujourd’hui, il n’existe pas encore de traitement pouvant la guérir, de même que les causes de son déclenchement vers l’âge de 30 ans ne sont pas encore connues. «Nous nous sommes demandés si les infections virales cérébrales contractées durant la petite enfance faisaient partie des causes possibles», relève Doron Merkler, professeur au Département de pathologie et d’immunologie de la Faculté de médecine de l’UNIGE et médecin-adjoint agrégé au Service de pathologie clinique des HUG. En effet, les infections transitoires du cerveau peuvent être gérées rapidement par le système immunitaire, sans même que l’enfant ne s’en aperçoive. «Mais une telle infection transitoire peut, dans certaines circonstances, laisser une empreinte locale dans le cerveau, que l’on pourrait caractériser de signature inflammatoire», poursuit le chercheur. Pour vérifier cette hypothèse, les scientifiques ont provoqué une infection virale transitoire chez un groupe de souris adultes et chez un groupe de souriceaux. «Dans les deux cas, les souris n’ont présenté aucun signe de la maladie et ont éliminés l’infection en une semaine, montrant une réponse anti-virale similaire», précise Karin Steinbach, chercheuse au Département de pathologie et d’immunologie de la Faculté de médecine de l’UNIGE. Ils ont ensuite laissé vieillir les deux groupes de souris, puis leur ont transféré des cellules immunitaires dirigées contre les structures du cerveau, nommées cellules auto-réactives, que l’on retrouve chez un patient atteint de sclérose en plaques. «De telles cellules peuvent également être présentes chez l’homme, sans nécessairement être associées à une maladie, car elles sont contrôlées par différents mécanismes et n’ont pas accès au cerveau», explique Karin Steinbach. Chez le groupe de souris infectées par le virus à l’âge adulte, les cellules auto-réactives n’ont effectivement pas induit de lésions cérébrales. Par contre, chez les souris infectées lorsqu’elles étaient petites, ces cellules auto-réactives ont migré vers le cerveau, à l’endroit précis de l’infection contractée par le souriceau, et ont commencé à en détruire les structures. Pourquoi une telle différence ? En analysant les tissus de la zone infectée par le virus chez le groupe de souriceaux, les chercheurs ont observé une accumulation d’un sous-type de cellules immunitaires: les lymphocytes T à mémoire résidant dans le tissu cérébral. «Normalement, ces dernières sont distribuées dans tout le cerveau, prêtes à le protéger en cas d’attaque virale. Mais ici, ces cellules s’amassent en surnombre à l’endroit précis de l’infection infantile, changeant la structure du tissu», s’étonne Doron Merkler. Ils ont alors constaté que cette accumulation cellulaire produit une molécule qui attire spécifiquement les cellules auto-réactives, leurs ouvrant l’accès au cerveau. Elles se mettent alors à en détruire les structures, provoquant la maladie auto-immune. «Afin de vérifier cette observation, nous avons bloqué le récepteur des cellules auto-réactives qui perçoit le signal produit par l’accumulation des lymphocytes T à mémoire résidant dans le cerveau, et effectivement, les souris ont été protégées des lésions cérébrales !», s’enthousiasme le chercheur genevois. « Nous avons ensuite regardé si, chez les personnes atteintes de sclérose en plaques, nous retrouvions cette accumulation de lymphocytes T à mémoires résidant dans le tissu cérébral qui produit le signal d’appel aux cellules auto-réactives, et c’est bien le cas !», se réjouit Karin Steinbach. Par analogie, les scientifiques suggèrent qu’un tel mécanisme pourrait exister chez l’homme, mais cela nécessite une étude plus approfondie. Article rédigé par Georges Simmonds pour RT Flash UNIGE | | | |
| Les biopsies liquides, des échantillons de fluides ou liquides des patients, provenant du sang, de l'urine, de la salive ou du LCR, offrent le moyen de détecter ou surveiller la maladie de manière moins invasive que les biopsies tissulaires. Leur potentiel considérable trouve un nouvel écho avec ces travaux de la Michigan Medicine qui, grâce à une nouvelle approche, parviennent à rendre l'invisible visible. Cette nouvelle technique de séquençage de l'ARN révèle des milliers de fragments d'ARN auparavant inaccessibles dans le plasma sanguin, qui vont servir de biomarqueurs spécifiques à une maladie ou à un organe. L’équipe de l’Université du Michigan, menée par le Docteur Muneesh Tewari, a mis au point cette nouvelle méthode permettant de « lever » les empreintes génétiques de minuscules fragments d’ARN trouvés dans le plasma sanguin- qui ne sont pas détectés avec les méthodes traditionnelles de séquençage d’ARN. Ces ARN messagers et ces longs ARN non codants peuvent fournir des indices importants sur l'activité des gènes dans tout le corps, y compris sur des gènes actifs dans certains organes ou associés à certaines maladies, comme le cancer. Ce sont donc des biomarqueurs en puissance, et pour une multitude de conditions. Par exemple, dans le cancer, cette approche pourra détecter les premiers signes d'effets secondaires auto-immunes en réponse aux immunothérapies, explique le Docteur Muneesh Tewari : « Il existe également un potentiel considérable de détection précoce du cancer, avec cette nouvelle technique, car elle permet d’identifier de longs ARN non codants assez spécifiques à certains types de cancer ». La véritable innovation est d’être en mesure de reconnaître ces autres types d'ARN jusque-là « oubliés » car ils présentent des spécificités critiques les empêchant de figurer dans les résultats du séquençage du plasma sanguin. Mais les chercheurs ont eu l’idée d’utiliser une enzyme qui se lie aux extrémités de ces fragments d’ARN et leur permet ainsi d’apparaître dans le séquençage. Une idée décrite comme « relativement simple » mais qui a permis de révéler des milliers de transcriptions de gènes supplémentaires dans le sang. L’approche décrite est en réalité l'aboutissement de plus de 10 années de recherche sur la détection des microARNs de tumeurs dans le plasma sanguin. Jusque-là, cette forme de biopsie liquide n'était pas capable de détecter des types d'ARN plus répandus et spécifiques à un organe, souvent trouvés sous forme fragmentaire. La seconde innovation consiste à pouvoir trier de manière fiable le flot de données de séquençage afin de filtrer les faux positifs et d’assurer un résultat précis. La méthode testée sur des échantillons de plasma prélevés chaque semaine sur 2 patients ayant subi une greffe de moelle osseuse à l’Université du Michigan a permis aux chercheurs de suivre pas à pas la reconstitution de la moelle osseuse après la greffe, ainsi que les modifications de l'ARN plasmatique sanguin indiquant une lésion du foie. Article rédigé par Georges Simmonds pour RT Flash NCBI | | | |
| Une étude menée par l’équipe Gestation et perturbateurs endocriniens de l’Ecole Nationale Vétérinaire de Toulouse (ENVT) et du laboratoire Toxalim (ENVT/Inra/Toulouse INP Purpan/UT3 Paul Sabatier), en collaboration avec les Universités de Montréal et de Londres, a montré chez l’animal que le bisphénol S (BPS) persiste plus longtemps dans l’organisme et à des concentrations beaucoup plus élevées que le bisphénol A (BPA). En raison des propriétés oestrogéno-mimétiques du BPS comparables à celles du BPA, le remplacement du BPA par le BPS conduit ainsi à multiplier par environ 250 les concentrations dans le sang d’une substance hormonalement active. Ce résultat montre que l’évaluation de l’exposition est critique pour la recherche d’alternatives à des substances préoccupantes et pourrait permettre d’éviter une substitution regrettable. En raison de mesures restrictives de son utilisation dans un grand nombre de pays dont la France, les industriels ont progressivement remplacé le bisphénol A (BPA) par des analogues structuraux, principalement le bisphénol S (BPS). Les recherches menées par l’équipe chez le porcelet montrent que la quantité de BPS ingérée, qui accède à la circulation sanguine générale, est environ 100 fois supérieure à celle du BPA. La biodisponibilité orale du BPS qui en résulte (57 %) très supérieure à celle du BPA (0,50 %), associée à sa plus lente élimination de la circulation sanguine (environ 3,5 fois inférieure) conduit à des concentrations de BPS dans le sang environ 250 fois supérieures à celles du BPA. Étant donné le caractère comparable des fonctions gastro-intestinales du porc et de l’homme, ces résultats suggèrent que le remplacement du BPA par le BPS pourrait conduire à augmenter l’exposition de l’homme à un composé hormonalement actif. Bien que les données toxicologiques soient encore insuffisantes pour évaluer le danger associé, ces résultats soulignent l’importance de l’estimation de l’exposition dans le processus d’analyse du risque pour la santé humaine lié à la substitution de substances préoccupantes. Article rédigé par Georges Simmonds pour RT Flash Inra | | | |
| Les cellules du cerveau échangent constamment des informations. Pendant le sommeil, cette activité sert notamment à consolider la mémoire. Toutefois, la façon dont ces échanges se font reste encore mal connue. L’électroencéphalogramme, qui permet de mesurer l’activité électrique globale du cerveau, montre des ondes régulières plus ou moins rapides selon les phases de sommeil, mais il ne permet pas de savoir comment est traitée l’information à l’échelle du neurone. Pour éclaircir ce mécanisme, l’équipe de Christophe Bernard (Institut de Neuroscience des Systèmes – Inserm U1106) a utilisé des électrodes afin d’enregistrer l’activité électrique d’une centaine de neurones concentrés dans une région donnée. Ce sont ces signaux électriques qui portent l’information. Trois zones connues pour être impliquées dans la mémoire ont été enregistrées chez des rats pendant leur sommeil : l’hippocampe, le cortex préfrontal et le cortex entorhinal. « D’après la régularité des ondes dans l’encéphalogramme, nous imaginions que les neurones fonctionnaient selon un schéma bien précis et répétitif pour transmettre les informations ou les stocker. Or les enregistrements montrent qu’il n’en est rien », clarifie Christophe Bernard. Des groupes de neurones s’organisent entre eux pendant des temps très courts pour stocker et transmettre de l’information, et se relaient en permanence au cours du temps. Et au sein de chaque groupe, seuls quelques neurones jouent un rôle prépondérant. « Il y a ainsi une succession de sous-états avec au final, environ la moitié des neurones de ces trois régions qui jouent un rôle clé dans le traitement de l’information à un moment ou à un autre. Autrement dit, il n’y a pas de hiérarchie établie au sein des neurones, mais plutôt une répartition équilibrée des rôles », explique Christophe Bernard. L’autre découverte majeure est que, pendant un sous-état donné, l’information ne suit pas toujours le même chemin. « Ce fut une surprise car la théorie dominante était que le transfert de l’information suivait un trajet fixe. Or, nous constatons que ce n’est pas le cas. Dans le cerveau, les partenaires avec lesquels un neurone échange fluctuent d’un instant à l’autre. Cela se passe un peu comme sur internet », illustre le chercheur. « Un mail qui part de Paris vers Sydney, passera par des serveurs situés dans différents pays au cours de son acheminement et ces serveurs varieront au cours de la journée en fonction du trafic. Dans le cerveau c’est pareil : même quand l’information est la même, les itinéraires qu’elle emprunte ne sont pas fixes et les partenaires changent sans arrêt ». Enfin, ces travaux ont permis de décoder le type de langage que les neurones parlent. Si un sous-état correspond à un « mot », la séquence de sous-états constitue une phrase. Même si la signification des mots et des phrases échappe encore aux chercheurs, ces derniers ont pu établir que le langage parlé par les neurones est complexe, ce qui permet d’optimiser le traitement de l’information. Un langage simple contient très peu de mots ; il est facile à apprendre mais il lui est difficile de convoyer des notions complexes. Un langage chaotique contient un mot pour chaque situation possible, et est impossible à apprendre. Le langage des neurones est complexe, comme pour les langues humaines. A noter que cette complexité est supérieure lors du sommeil paradoxal (celui des rêves) que pendant le sommeil lent. Les chercheurs vont maintenant regarder ce qu’il en est en cas d’éveil, de réalisation de tâches particulières ou encore en cas de pathologies. Ils vont notamment étudier le lien possible entre les pertes mnésiques chez les sujets épileptiques et la complexité du langage neuronal. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Les connaissances sur le fonctionnement du système immunitaire en cas de cancer ne cessent de progresser. Jérôme Galon et son équipe de l’Inserm contribuent largement à ces avancées. Après avoir montré que la progression du cancer dépend entre autres de la présence et de la fonctionnalité des lymphocytes T dans le microenvironnement tumoral et de l’Immunoscore, les chercheurs prouvent que la réponse immunitaire et ses blocages surviennent à des stades très précoces, pré cancéreux. Actuellement, la surveillance de lésions pré cancéreuses dans le cancer du poumon permet de les retirer si les médecins ont le moindre soupçon qu’elles soient à risque de donner un cancer. Mais les cliniciens étaient probablement loin d’imaginer qu’il est a priori, à ce stade, déjà possible de cibler le système immunitaire pour lutter contre l’aggravation de ces lésions. C’est ce que montrent les travaux de Jérôme Galon et son équipe. Les chercheurs ont eu accès à 122 biopsies pulmonaires provenant de personnes fumeuses à risque de cancer. Ils y ont retrouvé tous les stades des lésions pré cancéreuses à cancéreuses. Pour chaque biopsie, ils ont étudié le système immunitaire dans le microenvironnement tumoral. Ils ont procédé à une étude génomique des cellules présentes et à l’observation de ces dernières par fluorescence multispectrale, une technique d’imagerie fondée sur l’utilisation d’anticorps spécifiques ciblant différents types de cellules immunitaires. Ce travail leur a permis de caractériser la nature, la quantité et la disposition des différents acteurs immunitaires dans le microenvironnement tumoral à chaque stade pré cancéreux et cancéreux. Ils ont ainsi pu comparer les trajectoires évolutives du cancer et de la réponse immunitaire. Au stade de la dysplasie de bas grade, soit à un stade extrêmement précoce, lorsque les cellules présentent simplement quelques anomalies morphologiques, des défauts de réparation de l’ADN et une plus grande capacité à se diviser, les chercheurs constatent l’activation des cellules immunitaires locales et l’arrivée de lymphocytes T naïfs, c’est-à-dire non éduqués pour détruire spécifiquement les cellules anormales. Ensuite, au stade de la dysplasie de haut grade correspondant à des anomalies morphologiques et moléculaires plus importantes, les chercheurs observent un recrutement massif de l’immunité innée et adaptative avec la présence de lymphocytes B et T spécifiques des cellules anormales et une mise en place de la réponse immunitaire mémoire. Mais cette activation s’accompagne déjà à ce stade de l’apparition de points de blocage du système immunitaire appelés checkpoints et de cytokines suppressives, des molécules destinées également à bloquer la réponse immunitaire. Cela signifie que le fonctionnement du système immunitaire est déjà altéré avant l’apparition du cancer à proprement parler. Cette découverte effectuée dans le cancer du poumon doit encore être confirmée dans les autres types de cancers. Jérôme Galon y travaille déjà dans le cancer du côlon. Pour les chercheurs, ces travaux auront certainement à terme des retombées sur la prise en charge des patients. D’une part, ils soulignent l’importance de découvrir des biomarqueurs immunitaires pour mieux prédire les risques d’évolution des lésions pré cancéreuses vers des cancers. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Des chercheurs du Centre médical de l’Université Radboud aux Pays-Bas ont réalisé une étude sur 58 patients atteints de la maladie d’Alzheimer, à un stade léger ou modéré, et ont découvert un traitement contre l’hypertension qui pourrait ralentir le développement de cette maladie. L’étude, qui a été menée sur six mois, a regroupé 58 patients. Une partie d’entre eux avait pris de la nivaldipine, un antagoniste du calcium utilisé pour soigner l’hypertension, tandis que les autres avaient reçu un traitement placebo. L’étude a été réalisée en double aveugle, c’est-à-dire que ni les patients, ni les médecins ne savaient qui avait pris, ou non, de la nivaldipine. A terme, les scientifiques ont observé les cerveaux de chaque participant en réalisant des IRM. Les résultats ont indiqué que la nivaldipine avait réduit la tension artérielle et augmenté de 20 % le flux sanguin cérébral dans l’hippocampe, une zone du cerveau associée à la mémoire et à l’apprentissage, tandis que le flux dans les autres régions était resté stable. Les chercheurs ont indiqué que "les changements vasculaires cérébraux, y compris la réduction du débit sanguin cérébral surviennent tôt dans le développement de la maladie d’Alzheimer et peuvent accélérer la progression de la maladie. Les résultats indiquent non seulement une autorégulation cérébrale préservée de la maladie d’Alzheimer, mais aussi des effets cérébro-vasculaires bénéfiques du traitement antihypertenseur". Article rédigé par Georges Simmonds pour RT Flash Hypertension | | | |
| L'Agence nationale de sécurité sanitaire de l'alimentation, de l'environnement et du travail (Anses) a publié une étude qui confirme la dangerosité des particules ultrafines, le carbone suie et le carbone organique. De plus, l'Anses recommande de réduire sérieusement le trafic routier. Elle a passé au crible des études sur les particules de l'air ambiant extérieur et leur impact sur la santé en fonction de leur composition, leur source et leur taille. Elle a aussi étudié l'impact de la composition du parc de véhicules automobiles en France sur la pollution atmosphérique. Les particules recouvrent un terme générique qui comprend un mélange de polluants, ayant des tailles différentes selon la source. L'étude a essayé d'évaluer les effets sur la santé en lien avec certains composés des particules ou en fonction de leur taille ou de leur source. Les conséquences sanitaires de l'exposition aux particules fines sont déjà connues. Selon l'agence Santé publique France, elle entraîne chaque année 48 000 morts prématurées dans le pays. Mais il existe aussi de nombreuses preuves « d'effets néfastes pour la santé concernant le carbone suie, le carbone organique et les particules ultrafines (taille nanométrique) », selon un communiqué de l'Anses. Ces particules sont notamment issues du trafic routier, mais aussi de l'industrie ou du chauffage au bois. Les particules ultrafines ont des effets au niveau respiratoire ou cardiovasculaire : elles vont dans l'arbre respiratoire, jusqu'aux alvéoles, et elles rejoignent la circulation sanguine. Quant aux carbone suie et carbone organique, ils résultent de la combustion incomplète issue des moteurs, surtout diesel ou encore la combustion résiduelle de bois ou de charbon. Ils comprennent des composés très réactifs qui vont créer des inflammations plus importantes au niveau respiratoire et ils peuvent aussi provoquer des cancers. Le carbone suie et les particules ultrafines pourraient aussi avoir un impact « sur le développement des performances cognitives de l'enfant », et le carbone suie avoir un rôle sur le « faible poids des naissances », selon l'Anses, pour qui il faudrait des données supplémentaires pour confirmer ce lien. L'Agence recommande par conséquent de « cibler en priorité, dans les politiques publiques concernant l'air, trois indicateurs particulaires non réglementés : les particules ultrafines, le carbone suie et le carbone organique, en complément des indicateurs de particules PM2, 5 et PM10 (les particules fines) actuellement en vigueur ». L'Anses recommande aussi de mieux documenter les effets d'autres sources de pollution que sont l'agriculture, le transport maritime et l'activité portuaire. L'Agence a aussi développé différents scénarios concernant la composition du parc de véhicules et son évolution à 2025. Les évolutions technologiques, comme les filtres à particules sur les véhicules diesel, « permettent une diminution des émissions de particules, mais sont insuffisantes pour améliorer durablement la qualité de l'air », pour Guillaume Boulanger. Il faut encourager des technologies alternatives, dont le véhicule électrique, mais il faut surtout réduire le trafic automobile par les transports en commun, la marche à pied, le vélo, l'intermodalité, souligne l'étude. Article rédigé par Georges Simmonds pour RT Flash ANSES | | ^ Haut | |
|
| Recherche & Innovation, Technologies, Transports | |
| | | Des chercheurs de l'université technique de Munich ont pour la première fois fait atterrir automatiquement un avion, sans aucune aide extérieure. Sur les grands aéroports, les avions commerciaux peuvent depuis assez longtemps déjà atterrir en pilotage automatique. Dans ce but, l'avion est dirigé vers la piste d'atterrissage au moyen d'un système de radionavigation appelé Instrument Landing System (ILS). Les plus petits aéroports, eux, ne disposent souvent pas des radiobalises nécessaires. Ces dernières années, en lieu et place des signaux radio, ils utilisent des données fournies par satellite pour aider les avions à atterrir. Tel est le cas notamment à l'aéroport de Deurne, près d'Anvers. Toutefois, cette méthode n'est pas suffisamment précise pour permettre un atterrissage entièrement automatique. Lorsque l'avion atteint une altitude de 60 mètres, le pilote doit en reprendre les commandes, selon l'Université technique de Munich. Pour surmonter cet obstacle, les chercheurs allemands ont mis au point un nouveau système permettant l'atterrissage automatique d'un avion au centre de la piste d'atterrissage. En analysant les images prises par une caméra ordinaire et par une caméra infrarouge, l'avion détermine de lui-même sa position par rapport à la piste d'atterrissage. Grâce à leur logiciel, les chercheurs allemands sont parvenus à faire atterrir un avion, sans que le pilote doive intervenir et sans consulter de données extérieures. Appelé C2Land, le système expérimental de l’équipe utilise le GPS pour le contrôle du vol, en tandem avec un système de navigation à vision améliorée pour l’atterrissage. La technologie, décrite dans trois études distinctes, utilise un système de positionnement optique à déployer à moins de 60 mètres et au sol après l’atterrissage pour pouvoir être utilisé comme source supplémentaire d’informations de positionnement. Le système de vision par ordinateur — qui traite à la fois la lumière visible et l’infrarouge en cas de mauvaise visibilité due au Soleil, à la brume ou au brouillard — permet en théorie à C2Land de reconnaître la piste et de calculer une trajectoire de descente virtuelle pour l’approche d’atterrissage. En équipant un avion à hélice Diamond DA42 modifié avec le système C2Land, les chercheurs ont observé le pilote d’essai Thomas Wimmer essayer pour la première fois la technologie d’atterrissage automatique. Comme on peut le voir dans la video, Wimmer ne prend pas le contrôle de l’aéronef pendant l’atterrissage ; il laisse le système automatisé en charge gérer l’approche et l'atterrissage. « Les caméras reconnaissent déjà la piste très éloignée de l’aéroport » déclare Wimmer. « Le système guide ensuite l’avion tout au long de l’approche d’atterrissage et le pose exactement sur l’axe de la piste ». Reste à présent à tester ce système à grande échelle et dans des conditions extrêmes, avant qu'il ne soit certifié par les autorités aériennes, ce qui devrait prendre encore quelques années… Article rédigé par Georges Simmonds pour RT Flash TUM Youtube | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|