| | Edito Maladie d’Alzheimer : il faut changer notre approche conceptuelle de la maladie
On estime que la maladie d’Alzheimer touche déjà 850.000 personnes en France, et 225.000 nouveaux malades sont diagnostiqués chaque année. Elle se traduit par une dégénérescence lente mais inexorable des neurones, qui débute au niveau de l’hippocampe puis s’étend à l'ensemble du cerveau. Elle se caractérise par des troubles de la mémoire à court terme, des fonctions d’exécution et de l’orientation dans le temps et l’espace. Le malade perd progressivement ses facultés cognitives et son autonomie. En dépit des moyens considérables engagés de par le monde depuis plus de 20 ans pour essayer de comprendre les causes de cette maladie très complexe et de la traiter efficacement, aucune percée thérapeutique majeure n’a été réalisée à ce jour et la médecine ne peut, au mieux, que ralentir, dans certains cas, les effets dévastateurs de cette maladie. Face à cette situation, et alors que cette terrible maladie touche déjà plus de 10 millions de personnes dans le monde et devrait en affecter 45 millions en 2050, la communauté scientifique est en train de remettre profondément en question la théorie dominante qui veut que la présence croissante de plaques de la protéine amyloïde dans le cerveau soit la principale cause déclenchant cette maladie si redoutée. En fait, cette théorie avait été remise en cause dès 2011 par une étude suédoise dirigée par Davide Tampellini (Université de Lund) qui parvenait à la conclusion que c’était l’incapacité des neurones à poursuivre la synthèse des peptides β-amyloïdes qui était à l’origine de la maladie d’Alzheimer (Voir Lund University). Ces travaux avaient en effet montré que le niveau de sécrétion des peptides β-amyloïde se réduisait avec le temps dans des cultures de neurones de souris transgéniques Alzheimer mais pas dans des cultures de neurones issus de souris normales. Contrairement à la théorie dominante qui considère que les plaques extracellulaires de peptides β-amyloïdes s ont la principale cause d’Alzheimer, cette étude montrait que c’est la réduction des signaux de sécrétion des peptides β-amyloïde qui pourrait être à l’origine de la maladie d’Alzheimer. A la suite de ces travaux, le Professeur Tampellini a proposé une nouvelle explication de la maladie d’Alzheimer, avec sa théorie de l’accumulation intracellulaire précoce. Selon cette théorie, quand des peptides β-amyloïdes se concentrent dans le neurone, ils s’accumulent également dans les synapses de ces neurones. Lorsque ces synapses deviennent incapables de stocker ces peptides, la membrane cellulaire est détruite, ce qui entraîne un relâchement massif de ces peptides β-amyloïdes dans l’espace extra-cellulaire. Il s’en suit une formation des plaques visibles de la maladie d’Alzheimer. Ces plaques ne seraient donc pas la cause mais la conséquence de cette pathologie. L’année dernière, des travaux français menés par l'équipe de David Blum et Luc Buée (Université de Lille/Inserm) sont venus conforter une autre hypothèse, également très intéressante : la maladie d'Alzheimer serait une forme de « diabète » du cerveau et pourrait être liée à une perte de sensibilité des neurones à l'insuline, l'hormone qui régule le taux de sucre dans le sang (Voir JEM). Selon cette étude, se serait l’absence de la protéine tau qui provoquerait une résistance neuronale à l'insuline, favorisant ainsi les lésions cérébrales. Comme le souligne David Blum, « Nos travaux suggèrent que la perte de fonction de la protéine tau peut induire u ne résistance à l'insuline dans le cerveau, telle qu'elle est observée dans les cerveaux des malades d'Alzheimer ». Si cette piste du « diabète cérébral » était confirmée, elle ouvrirait également des perspectives thérapeutiques tout à fait nouvelles contre la maladie d’Alzheimer. Or, il se trouve qu’il y a seulement quelques jours, une équipe britannique de l’Université de Lancaster a montré qu’un médicament initialement mis au point pour le traitement du diabète semblait avoir sur la souris une efficacité thérapeutique remarquable pour traiter la maladie d'Alzheimer. Ce traitement provoque à la fois une diminution des plaques amyloïdes dans le cerveau, une réduction de l'inflammation chronique et du stress oxydatif et enfin un ralentissement de la perte des cellules nerveuses (Voir Science Direct). Il y a quelques semaines, une étude franco-canadienne est venue à son tour bousculer le consensus scientifique actuel, celui qui considère la maladie d'Alzheimer comme une maladie neurodégénérative, se traduisant par une perte progressive et irréversible de neurones et de synapses. Réalisés à partir des données provenant de l’analyse des cerveaux de 170 sujets décédés qui étaient atteints d’Alzheimer à des stades différents, ces travaux montrent au contraire que la maladie s’accompagne d’une faible diminution de marqueurs neuronaux et synaptiques. Les scientifiques ont été très surpris par leurs observations car ils étaient convaincus de trouver un marqueur de la maladie qui aurait indiqué sa progression au niveau des synapses. Pourtant, bien qu’ils aient étudié huit des protéines marquant ces synapses, ces scientifiques ont dû se rendre à l’évidence : il ne semble y avoir aucune corrélation entre la diminution du nombre de synapses - les connexions entre les neurones - et le niveau de démence observée. « En étudiant le devenir de huit marqueurs neuronaux ou synaptiques situés dans le cortex préfrontal de nos sujets, nous n’avons constaté, à notre grande surprise, que de très faibles pertes de neurones et de synapses. Notre étude suggère donc que, contrairement à ce qu’on pensait, la perte neuronale et synaptique est relativement limitée dans la maladie d’Alzheimer. C’est un changement radical de perspective », explique le Professeur Salah El Mestikawy, de l’Université McGill (Voir Nature). Partant de ce premier constat, l'équipe scientifique a ensuite cherché à établir une corrélation entre l’ensemble de ces baisses synaptiques limitées et le niveau de démence de tous les participants étudiés. Les résultats ont confirmé que les baisses des biomarqueurs synaptiques ont peu d’impact sur les capacités cognitives des sujets. L'étude suggère ainsi que la maladie d’Alzheimer serait plutôt liée à un dysfonctionnement des synapses, donc des connexions entre les neurones, et non à leur disparition du cortex des patients. Selon ces conclusions, l’identification de ce dysfonctionnement pourrait aboutir à des traitements efficaces de cette maladie car à ce jour, aucun d'entre eux ne peut guérir ni stopper son évolution. « Jusqu’à aujourd’hui, les interventions thérape utiques visaient à ralentir la destruction des synapses, mais cette voie n’est peut-être pas la bonne », précise Salah El Mestikawy. Ces chercheurs veulent à présent étudier les synapses dans plusieurs autres régions du cerveau que le cortex préfrontal, comme l'hippocampe, une région-clé dans les processus de mémorisation. Ils espèrent qu'à terme, les progrès réalisés dans la tomographie par émission de positons (TEP), qui consiste à injecter des radiotraceurs qui vont se lier spécifiquement aux lésions cérébrales caractéristiques de la maladie, permettront de mesurer les synapses directement dans le cerveau des patients vivants, et ce pendant des années, pour constater d'éventuelles modifications correspondant à l’apparition de la maladie. Il y a quelques semaines, une autre étude est venue également remettre en cause la théorie dominante des plaques amyloïdes comme cause principale de la maladie d’Alzheimer. Prolongeant les travaux de Johan Auwerx à l'École polytechnique fédérale de Lausanne (EPFL), l’équipe de Diego Mastroeni, de l'Université d'État de l'Arizona, a examiné les effets de la maladie d'Alzheimer sur le fonctionnement des mitochondries, des structures à l'intérieur des cellules qui produisent l'énergie (Voir Alzheimer's & Dementia.) Ces scientifiques ont montré qu'une forme très toxique de la protéine bêta-amyloïde, l'oligomère a-bêta (OAbêta) peut venir altérer le fonctionnement normal des mitochondries, ce qui va enclencher une cascade de réactions moléculaires et biologiques qui se manifestent plusieurs décennies avant l'apparition des premiers symptômes cliniques d’Alzheimer. Mais cette étude a également montré que certaines substances peuvent protéger les cellules neuronales humaines du stress oxydatif qui détériore leurs mitochondries. A cet égard, deux de ces composés semblent très prometteurs selon ces chercheurs : la vitamine nicotinamide riboside (une forme de vitamine B3) et un antioxydant, la coenzyme Q10 (CoQ10). Ces recherches récentes viennent donc porter un nouveau coup à la théorie des plaques amyloïdes, qui pourrait bien être, soit erronée, soit incomplète et semble de plus en plus impuissante à expliquer, à elle seule, l’apparition de la maladie d’Alzheimer. Comment en effet expliquer que certains patients âgés qui présentent une forte accumulation de ces plaques dans leur cerveau n'aient pas de déficit cognitif mesurable, alors que d'autres qui présentent au contraire peu ou pas d'accumulation d'amyloïdes souffrent de formes sévères de cette maladie ? Il est par ailleurs inexplicable que plusieurs médicaments expérimentaux, pourtant efficaces pour détruire ces plaques amyloïdes, n’aient pas permis d’obtenir de bénéfices thérapeutiques notables au cours des essais cliniques. Dans ce contexte, l'hypothèse d'une longue cascade de réactions moléculaires et biologiques menant à la maladie, et déclenchée par une dysfonction des mitochondries, semble très intéressante, d’autant plus qu’on sait que cette fonction mitochondriale décline avec le vieillissement et s’altère encore plus vite sous l’effet de la protéine bêta-amyloïde. Comme le souligne Johan Auwerx, en pointe sur ces recherches à l’EPFL, « Nous avons montré que restaurer la santé mitochondriale réduit la formation de plaques – mais, surtout, cela améliore la fonction cérébrale, ce qui est l'objectif ultime pour tous les patients et les chercheurs dans l'Alzheimer. » Il faut également rappeler qu’une autre théorie, qui n’est d’ailleurs pas incompatible avec celle des mitochondries, considère que le système immunitaire peut jouer un rôle clé dans le développement de la maladie d’Alzheimer, Dans cette perspective, la maladie d’Alzheimer serait en fait déclenchée par une réponse immunitaire en réponse à des bactéries ou d’autres agents pathogènes. Cette théorie s’est trouvée confortée en 2016 par deux études, l’une américaine, de l’Ecole de Médecine d’Harvard et l’autre australienne, de l'Université d'Adelaide. Selon Rudy Tanzi et Robert Moir, chercheurs au sein de la prestigieuse université médicale de Harvard, la maladie d’Alzheimer pourrait en effet être déclenchée par une réaction immunitaire intempestive chez certains patients dont l’organisme est submergé par certains agents pathogènes, qu’il s’agisse de bactéries, comme celles qui cause la maladie de Lyme, de virus ou encore de champignons, comme la chlamydia (Voir Frontiers in Neuroscience). Pour Rudy Tanzi, les facteurs liés au mode de vie pourraient jouer un rôle essentiel dans la prévention de cette maladie, et notamment l’alimentation, l’exercice physique et la qualité du sommeil. Ce chercheur reconnu souligne également que certains vaccins, ou encore certains médicaments réduisant l’inflammation, comme l’aspirine, semblent avoir à long terme des effets protecteurs en diminuant les risques de maladie d’Alzheimer et en retardant l’apparition de cette pathologie. Cette piste immunitaire a été confirmée, toujours en 2016, par des travaux australiens menés par Robert Richards de l'Université d'Adelaide. Cette équipe a montré que le déclin neurologique commun à ces maladies est causé par une réaction inflammatoire persistante du système immunitaire qui finit par provoquer la mort de cellules cérébrales. Ces chercheurs ont montré de manière convaincante que, derrière l’apparence d’une spécificité des principales maladies neurodégénératives (maladie d'Alzheimer, de Parkinson et de Huntington) on retrouve un mécanisme commun qui conduit à la perte de cellules nerveuses. « Nous avons commencé à soupçonner le système immunitaire inné d'être responsable de ces pathologies quand nous avons découvert que des agents du système immunitaire étaient activés dans un modèle de laboratoire de la maladie de Huntington », précise à cet égard le Professeur Richards. Selon ce chercheur, plusieurs types d’événement, comme des mutations génétiques, des infections, des toxines ou des blessures physiques, pourraient à la longue déstabiliser le système immunitaire et conduire à différentes formes de neurodégénescence, dont Alzheimer, entraînant in fine la mort des cellules cérébrales. Cette piste immunitaire s’est d’ailleurs trouvée confortée fin 2016, par des travaux réalisés par des chercheurs suédois de l’Institut Karolinska de Stockholm qui ont montré qu’un vaccin expérimental - l’AADvac1 - ciblant la protéine tau (Tubule-Associated Unit) et testé dans le cadre d’essais cliniques de phase 1 sur 30 patients âgés de 50 à 85 ans a permis sur 29 d’entre-deux d’obtenir une réponse immunitaire spécifique. Si les essais cliniques de phase 2 et 3, actuellement en cours, confirment ces bons résultats, ce vaccin thérapeutique (à ne pas confondre avec les vaccins préventifs) pourrait être disponible vers 2022. Évoquons enfin une étude publiée il y a quelques jours et conduite par Emily Rogalski, professeure en neurologie cognitive à l'Université Northwestern à Chicago. Après avoir étudié le cerveau de 10 superseniors décédés, ces travaux ont montré qu'ils possédaient une plus grande quantité d'un certain type de cellules cérébrales, connues sous le nom de neurones Von Economo, une catégorie de neurones que l’on trouve notamment dans le cortex cingularis anterior et qui jouent un rôle important dans la communication entre les aires cérébrales (Voir Science Alert). Cette étude révèle également, et ce point est crucial, que les superseniors, tous âgés de plus de 90 ans, bien que possédant un niveau relativement élevé de protéine bêta-amyloïde, présentent des capacités cognitives meilleures que celles de quinquagénaires exempts de la maladie d’Alzheimer… Ce paradoxe semble donc bien confirmer que certaines personnes sont protégées tout au long de leur longue vie des effets neurotoxique de cette protéine. Autres enseignements de ces travaux, les superseniors consacrent au moins deux heures par jour à une activité intellectuelle et pratiquent, en moyenne, 30 minutes d’activité physique intense par jour. Ils accordent également beaucoup d'importance aux relations et aux contacts sociaux, et dorment huit heures par nuit en moyenne. Cette étude montre également qu’une consommation modérée d’alcool et de café semble plutôt bénéfique pour le cerveau, ainsi qu’un léger surpoids. A la lumière de l’ensemble de ces avancées et découvertes cliniques et fondamentales, on voit à quel point la maladie d’Alzheimer est une pathologie complexe et déroutante qui revêt de multiples dimensions, d’ordres génétiques, immunitaires, métaboliques et environnementales. Compte tenu de cette nouvelle réalité scientifique, il semble aujourd’hui admis qu’il faut complètement reconstruire le cadre théorique et conceptuel d’approche de cette maladie, pour y intégrer l’ensemble de ces nouvelles connaissances et déboucher enfin sur des ruptures thérapeutiques qui permettent de prendre en charge les malades, non seulement lorsque la maladie en est encore à un stade précoce, mais également dans les formes plus avancées et plus sévères. Sachant que le nombre de malades pourrait doubler en France au cours des 20 prochaines années, souhaitons que notre pays prenne conscience de cet enjeu scientifique et social majeur et y consacre les moyens humains et financiers qui permettront enfin de ne plus être impuissants et démunis face à cette terrible maladie. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Information et Communication | |
| | | Des chercheurs du célèbre MIT ont mis au point une puce qui s’inspire du fonctionnement de notre cerveau et devrait consommer beaucoup moins d’énergie que le font les processeurs actuels. Malgré leur sophistication, les puces utilisées dans nos ordinateurs et nos smartphones restent binaires. Les informations y circulent sous la forme de 0 ou de 1, de « on » ou de « off ». La puissance électrique nécessitée par chaque impulsion est toujours la même et livre donc une somme identique d’information. La solution proposée par les chercheurs du MIT s’inspire quant à elle directement du fonctionnement de nos synapses. Plutôt que d’envoyer ou non du courant, des 0 ou des 1, la puce envoie des signaux dont l’intensité électrique varie. C’est exactement de cette manière que fonctionnent les synapses qui relient nos neurones entre eux. Ce type de communication permet de transmettre bien plus d’informations en une seule impulsion électrique que lorsque l’on utilise un système binaire. Un parallèle peut être fait en comparant ces deux principes au morse et au langage oral. S’exprimer en morse avec des points et des tirets est fiable, mais prend du temps. En comparaison, il est plus difficile d’interpréter une expression orale, mais chaque énonciation contient bien plus d’informations. Pour parvenir à réaliser cette puce neuromorphique, les chercheurs du MIT ont su utiliser les formes cristallines de silicone et de germanium qui ressemblent à une sorte de maillage microscopique qui permet de maîtriser l’intensité des signaux électriques. Utilisée pour entraîner un réseau neuronal à reconnaître des écritures manuscrites, cette puce a déjà permis d’atteindre une précision de 95 %. En jouant des variations de signaux, en leur attribuant différents poids, comme le font les neurones, ces petites puces neuromorphiques sont capables, en théorie, de mener des millions de calculs en parallèle comme seuls les super-calculateurs peuvent le faire actuellement. « Cela ouvre la porte à de vrais composants pour l'intelligence artificielle », indiquait Jeehwan Kim, à la tête des chercheurs du MIT. « A terme, nous voulons que ces puces, aussi grosses qu'un ongle, remplacent les super-ordinateurs », précise-t-il… Article rédigé par Georges Simmonds pour RT Flash MIT | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Le MIT CSAIL a révélé une nouvelle technologie qui devrait faire parler d'elle. Appelée « colorFab », elle permet de créer des objets qui peuvent changer de couleur après les avoir imprimés. On peut l'utiliser, par exemple, pour créer un étui de téléphone ou une paire de boucles d'oreilles qui correspond à votre robe rouge aujourd'hui et correspondra également à votre tailleur bleu de demain. Le secret de ColorFab réside dans l'encre sur mesure de l'équipe CSAIL, qui a des colorants de base et des colorants photochromiques (ou adaptables à la lumière). Les colorants adaptables à la lumière font ressortir la couleur des colorants de base lorsqu'ils sont exposés à la lumière UV. Sous la lumière visible, les couleurs disparaissent et l'encre devient transparente. Pour utiliser ColorFab, on doit télécharger le modèle 3D sur son interface, puis sélectionner un motif de couleur. Les parties de l'objet qui peuvent être transformées ont un design pixélisé, et on peut par la suite choisir quels pixels activer pour changer de couleur ou désactiver pour revenir en transparence. Pour le moment, il faut encore 23 minutes au système pour changer de couleur, mais l’équipe croit qu'elle peut réduire ce temps d’attente en utilisant des lumières plus puissantes ou en ajoutant plus de colorants photochromiques. En outre, l'équipe travaille également à créer une conception qui permette à un objet ColorFab de créer des teintes secondaires. Le but de cette recherche n'est pas seulement de permettre la création de produits qui changent de couleur, mais également de pouvoir réduire les déchets. Pour cela, les chercheurs envisagent d’apporter leur produit à l'industrie du vêtement. Selon Stephanie Mueller, professeure au MIT, "Les gens consomment beaucoup plus qu'il y a vingt ans et ils créent beaucoup de gaspillage en changeant la couleur d'un objet, mais avec cette nouvelle technique, il n'est pas nécessaire de créer un nouvel objet à chaque fois qu’on veut changer de couleur". Article rédigé par Georges Simmonds pour RT Flash MIT | | | |
| Un consortium français regroupant sept partenaires vient de présenter le programme de recherche FollowKnee. Il ambitionne de révolutionner la chirurgie du genou par une approche multidisciplinaire qui combinera scan de la morphologie du patient, impression 3D d’une prothèse conçue sur mesure, opération en réalité augmentée, et suivi post-opératoire par des capteurs intégrés. Le projet est motivé par les évolutions démographiques (population vieillissante, prévalence de l’obésité…) qui décuplent le besoin en prothèses de genou. Le nombre de poses devrait croître de 600 % d’ici à 2030, d’après le consortium. FollowKnee, qui débute aujourd’hui, va courir sur 5 ans. Il fait partie des dix projets de recherche hospitalo-universitaire (RHU) récemment sélectionnés par le gouvernement dans le cadre du programme d’investissements d'avenir. Il bénéficie d'un budget de 24,5 millions d'euros qui lui a été alloué par l’Agence Nationale de la Recherche (ANR). Le projet sera coordonné par le professeur Eric Stindel, qui dirige le Latim, laboratoire à l’interface entre l’Université de Bretagne Occidentale (UBO), l’Institut Mines-Telecom Atlantique (IMTA), l’Inserm et le CHRU de Brest. Six partenaires techniques s’occuperont quant à eux de mettre au point les différentes solutions du programme : Immersion, Imascap, la société SLS, b<>com, ID2Santé, et le CEA Grenoble. Chacun y va de sa spécialité. Imascap créera le modèle 3D et la base de données associée. L’entreprise bordelaise Immersion développera l’interface en réalité augmentée qu’utilisera le chirurgien lors de l’opération. SLS gérera l’impression 3D de la prothèse, et le CEA Grenoble fournira les capteurs intégrés à la prothèse. Sur la partie réalité augmentée, les chirurgiens souhaitent pouvoir mesurer les caractéristiques physiques du genou, à la fois pour vérifier la position des structures osseuses par rapport au planning et déterminer la laxité en flexion et en extension. Deux échéances ont été posées pour la réalisation du projet. « D’ici 3 ans, nous allons d’abord réaliser des prothèses de genoux imprimées en 3D qui seront implantées sur 220 patients », précise le Professeur Eric Stindel dans un communiqué. « Ensuite, nous y implanterons les capteurs que nous testerons avec 30 patients. Nous proposerons cette nouvelle prothèse à des patients plutôt jeunes pour superviser son fonctionnement sur un temps long ». L’objectif est d’obtenir un produit commercialisable avec une évaluation clinique des résultats au bout des cinq ans du programme. Article rédigé par Georges Simmonds pour RT Flash L'Usine Digitale | | ^ Haut | |
|
| | | Des chercheurs de l’Institut des Sciences Chimiques de Rennes (CNRS/Université de Rennes/ENSC Rennes/INSA Rennes) ont conçu une molécule-aimant au design inédit qui lui donne la capacité d’être manipulée à l’air. Ces résultats permettent d’envisager le stockage d’informations à une échelle nanométrique. Comme son nom l’indique, la molécule-aimant est un aimant formé d’une seule molécule. Elle a la capacité de garder une aimantation indépendamment de celles de ses voisines, au sein d’un même matériau. Elle ouvre ainsi des pistes dans le domaine du magnétisme moléculaire et du stockage d’information à une échelle très réduite. Mais les molécules-aimants les plus performantes sont pour la plupart instables en présence d’air et d’eau. En collaboration avec l’équipe du Professeur Jeffrey R. Long (UC Berkeley), des chercheurs de l’Institut des Sciences Chimiques de Rennes (CNRS/Université de Rennes/ENSC Rennes/INSA Rennes) ont conçu une molécule-aimant plus résistante et manipulable à l’air. Pour cela, les scientifiques ont mis au point un design original. Ils ont d’abord conçu une molécule contenant un atome de dysprosium et un atome de fluor. Ces deux atomes, associés pour la première fois dans une molécule-aimant, sont maintenus par une cage organique à base d’azote et de carbone. Par une étude mêlant spectroscopie d’émission à très basse température, magnétométrie et calculs théoriques, ils ont établi que la très forte interaction existant entre le dysprosium et le fluor est essentielle pour l’obtention d’un comportement de molécule-aimant : les tests effectués montrent une aimantation toujours présente à -265°C. Si une optimisation de la cage organique pourrait augmenter encore significativement cette température de fonctionnement, le design choisi présente surtout un avantage significatif en terme de conditions d’utilisation : la stabilité à l’air est cruciale pour une éventuelle mise en œuvre de ces matériaux moléculaires pour le stockage magnétique de l’information. Ce travail a été développé dans le cadre du projet Photo-SMM (projet H2020, Action Marie S. Curie) qui vise à développer des molécules-aimants dont le magnétisme pourrait être contrôlé par une source de lumière. Plus faciles à manipuler et à étudier, ces molécules-aimants robustes à l’air devraient donc maintenant être adaptées pour permettre ce contrôle. Un pas significatif vers des mémoires de taille nanométrique. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Une étude internationale a montré que les changements climatiques en cours perturbaient la dynamique des inondations en Europe. Celles-ci se produisent en moyenne deux semaines plus tôt au printemps sur le littoral ouest du Vieux Continent. Pour parvenir à ces conclusions, une équipe internationale de scientifiques, parmi lesquels des chercheurs de l'Ecole polytechnique fédérale de Zurich (EPFZ), a analysé les données de 4200 stations hydrométriques dans 38 pays européens entre 1960 et 2010. Une centaine d'institutions de recherche ont participé à ces travaux publiés dans la revue Science. Selon l'étude, les changements les plus significatifs ont été enregistrés sur la côte de l'Atlantique Nord, du Portugal au sud de l'Angleterre. La moitié des stations de mesure y constate des crues avancées de 15 jours au moins en un demi-siè cle. En Scandinavie et dans les pays baltes, les hautes eaux se produisent même un mois plus tôt qu'il y a 50 ans, du fait que la fonte des neiges y est plus précoce. A l'inverse, les chercheurs notent un retard de deux semaines des tempêtes hivernales en Angleterre et dans le nord de l'Allemagne. Dans certains secteurs de la Méditerranée également, le réchauffement a pour conséquence davantage d'intempéries plus tardives sur la fin de l'hiver. Les auteurs de cette étude ont passé en revue 3 scénarios, allant de +1,5°C à +3°C par rapport à l'ère pré-industrielle. Dans le scénario le plus optimiste, les dommages causés par les débordements de cours d'eau en Europe vont plus que doubler, à environ 15 milliards d'euros par an, selon les chercheurs. Et le nombre de personnes affectées par les inondations augmenterait de 86 %, soit environ 650.000 personnes par an. Mais en cas de hausse des températures de 3°C, les dommages monteraient de 145 % à environ 17 milliards d'euros par an, et 780.000 personnes seraient touchées (+123 %). L'Accord de Paris sur le climat, signé en 2015, vise à contenir la hausse de la température sous le seuil critique de 2°C par rapport à l'ère pré-industrielle, voire 1,5°C. Le risque de crues dévastatrices pourrait être multiplié par vingt d'ici la fin du 21e siècle, rendant indispensable "une amélioration des données et des estimations du changement saisonnier des inondations", préviennent Louise Slater et Robert Wilby, respectivement géographe et professeur d'hydroclimatique à l'Université de Loughborough au Royaume-Uni. Article rédigé par Georges Simmonds pour RT Flash Climate | | | |
| Les robots autonomes du laboratoire d’océanographie de Villefranche ont étudié pendant trois ans, en plongeant jusqu'à 1000 mètres de profondeur, l’accroissement de la population de phytoplancton, qui joue un rôle majeur dans l'absorption de gaz carbonique. Des travaux qui pourraient s'avérer déterminants dans l'étude du réchauffement climatique. A chaque printemps, les eaux du Sud du Groenland sont le théâtre d’une explosion de vie. En avril, le phytoplancton y fleurit dans des proportions spectaculaires. Si bien que les satellites observent les couleurs de ce phénomène appelé « bloom de l’Atlantique Nord ». Pourquoi et comment se produit-il ? Jusqu’à présent, nul n’était sûr. Les théories divergeaient. Les robots du laboratoire d’océanographie de Villefranche (LOV) ont mené l’enquête. Développés dans le cadre du projet européen remOcean, ces flotteurs-profileurs géochimiques ont étudié la formation du phytoplancton en profondeur pendant trois ans. Les travaux des chercheurs font l’objet de deux publications dans Nature Geosciences et Nature Communications. « Nous avançons à grands pas dans la compréhension des écosystèmes marins grâce à ce genre de plates-formes », avance Alexandre Mignot, chercheur post-doctoral au LOV. Elles sont les seules à pouvoir observer des endroits inatteignables jusqu’alors ». Car de fin novembre à fin mars, les conditions climatiques extrêmes empêchent les bateaux d’effectuer des campagnes de mesures en Atlantique Nord. Baptisé Argo, un réseau d’observation océanique constitué de 3000 robots flotteurs autonomes existe déjà depuis des années. Mais il n’observe que les caractéristiques physiques de l'océan, notamment sa température et sa salinité. Fournis par une entreprise bretonne, les appareils utilisés par le LOV sont basés sur la même technologie qu’Argo. Mais les chercheurs les ont équipés pour observer la biologie et la chimie océaniques. Ils permettent d’obtenir la concentration de phytoplancton grâce à un capteur optique qui détecte la fluorescence de la chlorophylle a – un pigment du phytoplancton. D’autres capteurs mesurent entre autres le taux d’oxygène, le pH, la concentration de nitrate ou encore la lumière qui arrive dans l’eau. Déployés en 2013, les neufs robots du LOV ont étudié trois blooms printaniers jusqu’en 2016, la durée de vie de leur batterie étant de 3 ans. Immergés à 1000 mètres de profondeur, ils sont remontés à la surface tous les dix jours en effectuant leurs mesures le long de la colonne d’eau. Les données étaient envoyées par satellite au laboratoire qui pouvait transmettre en retour de nouvelles consignes. Le robot retournait alors à sa profondeur cible et se laissait dériver au gré des courants. Historiquement, le départ du bloom de l’Atlantique Nord était situé au printemps, au moment où les eaux de surface se réchauffent. Il y a une dizaine d’années, une hypothèse a remis en question la théorie établie : le bloom commencerait en hiver. « Nous n’arrivions pas à clore ce débat car nous manquions d'observations », se souvient Alexandre Mignot. « Mais grâce à nos robots, nous avons obtenu les premières séries temporelles à plusieurs endroits au niveau du bassin. » Les chercheurs ont constaté que le même cycle se répétait chaque année de l'hiver au printemps. « Aujourd'hui, nous savons que le changement climatique impacte la physique de l'océan et qu'il aura un effet sur le phytoplancton », remarque Alexandre Mignot. « Cependant, nous ne savons pas précisément quel sera cet effet ». Or, ces petites plantes de la mer ne sont pas seulement le premier maillon de la chaîne alimentaire. Elles sont aussi un acteur majeur de l’absorption du CO2 atmosphérique. Par la photosynthèse, le phytoplancton le transforme en carbone organique. « Le bloom de l’Atlantique Nord a un rôle important dans le cycle du carbone de l'océan », assure le chercheur. La surface sur laquelle il se produit ne représente que 1,5 % de la superficie océanique de la planète. Pourtant, il absorbe 20 % du CO2 capté par l’océan. Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des chercheurs américains de l'Université Northwestern à Chicago ont identifié une molécule qui, chez la souris, paraît protéger contre la sclérose en plaques, une maladie auto-immune touchant les femmes trois à quatre fois plus que les hommes, sans qu'on sache pourquoi. La production de cette molécule est justement liée à l'hormone mâle testostérone. Quand les rongeurs femelles, manipulées génétiquement pour souffrir de l'équivalent de la sclérose en plaques humaine, ont été traitées avec cette molécule protectrice, leurs symptômes ont disparu, expliquent ces scientifiques. "Cette avancée pourrait aboutir à une classe entièrement nouvelle de thérapie contre la sclérose en plaques", estime la Docteur Melissa Brown, professeur d'immunologie à la faculté de médecine de l'Université Northwestern à Chicago, principal auteur de ces travaux. Jusqu'à présent, les scientifiques ne comprenaient pas comment la testostérone procurait cette protection contre la sclérose en plaques. La sclérose en plaques est une maladie inflammatoire qui attaque le système nerveux central, détruisant la myéline, une gaine entourant et protégeant les fibres nerveuses dans le cerveau et la moelle épinière. Les symptômes sont des problèmes moteurs et des déficits cognitifs. Ces scientifiques ont déterminé que la testostérone provoquait une réaction dans un certain type de cellules immunitaires, les mastocytes, qui produisaient une cytokine IL-33 empêchant la réaction immunitaire conduisant à la destruction de la myéline par un autre type de cellules immunitaires, les Th17. Dans ce modèle de maladie, semblable à la SEP chez les humains, les femelles développent plus d'une réponse immunitaire Th17 causant la maladie que les mâles. Ces cellules Th17 attaquent et détruisent la myéline. Mais cette réponse préjudiciable a été inversée chez les femelles par traitement avec IL-33. "Parce que les niveaux de testostérone sont sept à huit fois plus bas chez les femmes adultes que chez les hommes, nous supposons qu'il n'y a pas suffisamment de niveaux chez les femmes pour activer cette voie protectrice", a déclaré Brown. "Mais nous avons montré que nous pouvons activer la voie avec la molécule gardienne, IL-33". Des essais cliniques pendant douze mois avec de la testostérone chez des hommes atteints de sclérose en plaques ont partiellement inversé la destruction de myéline et la dégénérescence des fibres nerveuses, indiquent les chercheurs. Toutefois pointent-ils, même à court terme, la testostérone n'est pas une thérapie viable chez les hommes ou les femmes en raison de ses multiples effets secondaires néfastes. Article rédigé par Georges Simmonds pour RT Flash Medical Xpress | | | |
| Considéré comme une méthode efficace de substitution et de sevrage tabagique, le vapotage, ou cigarette électronique, connaît un franc succès, surtout chez les jeunes. Mais les risques réels à long terme de cette nouvelle pratique restent mal connus. Une récente étude réalisée par la faculté de médecine de l'université de New York suggère en effet que la vapeur de nicotine serait peut-être plus nocive qu'on ne le pensait. Dans ce travail, des rongeurs ont été exposés au vapotage pendant douze semaines. Ils ont aspiré de la vapeur de nicotine équivalente en dose et durée à dix ans de vapotage pour les humains. À la fin de cette expérience, les scientifiques ont constaté des dommages dans l'ADN des cellules des poumons, de la vessie et du cœur de ces animaux ainsi qu'une réduction du niveau de protéines réparatrices des cellules dans ces organes comparativement aux souris qui avaient respiré de l'air filtré pendant la même période. Des effets néfastes similaires ont été observés dans des cellules humaines de poumon et de vessie exposées en laboratoire à de la nicotine et à un dérivé cancérogène de cette substance (nitrosamine). Ces cellules ont subi notamment des taux plus élevés de mutations tumorales. "Bien que les cigarettes électroniques contiennent moins de substances carcinogènes que les cigarettes conventionnelles, le vapotage pourrait présenter un risque plus grand de contracter un cancer pulmonaire ou de la vessie ainsi que de développer des maladies cardiaques", écrivent les chercheurs dont le professeur Moon-Shong Tang, professeur de médecine environnementale et de pathologie à la faculté de médecine de l'université de New York, le principal auteur. En octobre dernier, une autre étude américaine, publiée dans la revue Tabacco Control, montrait quant à elle que la cigarette électronique présentait nettement moins de risques pour la santé. Elle pourrait même permettre de diminuer le nombre de morts aux États-Unis, de 1,6 à 6,6 millions de morts en moins. Encore faudrait-il ne pas sous-évaluer les risques réels à long terme d'un usage régulier de la cigarette électronique… Article rédigé par Georges Simmonds pour RT Flash PNAS | | | |
| Une étude anglo-chinoise a suivi plus de 5000 personnes sur plus de 10 ans et a permis de rapprocher l'excès de sucre de l'accélération du déclin cognitif. Le sucre dont se nourrissent nos tissus et nos cellules est essentiellement le glucose, un sucre simple. Tous nos tissus et toutes nos cellules ont besoin de glucose et d’oxygène. Une privation de l’un ou de l’autre a de graves conséquences, jusqu’à la mort cellulaire. Parmi toutes les cellules qui constituent notre corps, les cellules nerveuses sont particulièrement précieuses, car elles sont les actrices de notre pensée, de notre vie de relation et de notre survie. Or, elles n’ont pas la même faculté de se multiplier que les cellules des autres tissus. Le glucose et l’oxygène doivent donc être fournis à toutes nos cellules et en permanence. Une baisse sévère de la concentration du sang en glucose (hypoglycémie) ou en oxygène (hypoxémie) entraîne une souffrance des cellules nerveuses qui sont très sensibles à cette privation. Mais l’excès de glucose ou d’oxygène est également néfaste pour nos cellules nerveuses. L’hyperglycémie et l’hyperoxie se montrent toxiques, mais pas de façon aiguë comme l’hypoglycémie et l’hypoxémie : uniquement à moyen et long terme. En d’autres termes, notre cerveau a besoin d’avoir un apport en glucose et en oxygène permanent et régulier. Chez un sujet qui ne souffre pas de diabète, un apport massif de sucre comme du saccharose – composé de glucose et de fructose – produit une hyperglycémie qui est ensuite corrigée par une sécrétion réactionnelle d’insuline, l’hormone hypoglycémiante. Mais cette charge glucidique, si elle se répète souvent, peut à la longue causer des dégâts, car la réponse insulinique n’est pratiquement jamais parfaitement adaptée. Ce sont surtout les grandes variations de la glycémie qui sont nocives. Car notre organisme s’efforce de les corriger, mais la réaction n’est jamais aussi adaptée que nécessaire et de plus elle peut se montrer elle-même toxique. En effet, le catabolisme de l’insuline est susceptible d’être lui aussi neurotoxique. Selon ces travaux, la consommation exagérée de saccharose - non adaptée à nos besoins - semble bel et bien favoriser le déclin cognitif, qui est irréversible. Cela par une action toxique tant sur les cellules nerveuses que sur les micro vaisseaux des tissus nerveux. Ce déclin cognitif se manifeste par une diminution de la mémoire et une altération de la capacité d’analyse et de jugement. Le rapprochement entre le diabète et la maladie d'Alzheimer semble déjà établie, mais il semblerait que ce même rapprochement puisse s'opérer entre l'excès de sucre sur la durée et l'apparition de cette même maladie neurodégénérative. En effet, le diabète, notamment celui de type 2, semble favoriser le développement de la maladie d’Alzheimer. De la même façon, un excès d’apport de sucre pourrait être susceptible de le favoriser. Article rédigé par Georges Simmonds pour RT Flash Scimex | | | |
| Des chercheurs du Francis Crick Institute de Londres sont parvenus, pour la première fois, à cartographier dans son intégralité un microcircuit cérébral chez la souris. Aujourd'hui, on peut certes observer le cerveau vivant avec les techniques classiques de neuro-imagerie et de microscopie. Mais pour en savoir plus, il faut ouvrir la boîte crânienne et introduire des électrodes afin d'étudier la communication inter-neuronale, tant électrique que chimique, une solution évidemment inenvisageable chez l'homme pour des raisons éthiques. Par contre, chez l'animal, la preuve vient d'être apportée que les microcircuits neuronaux jusque-là invisibles pouvaient bien être visualisés et cartographiés. Comment ? Grâce à une nouvelle technique de nano-imagerie mise au point par les chercheurs et baptisée Nanoengineered Electroporation Microelectrodes (NEMs). L'équipe londonienne s'est intéressée au glomérule olfactif, la structure qui, chez les rongeurs, permet la perception olfactive, et s'est donné pour objectif de visualiser le circuit neuronal de cette structure composée de 250 neurones. Dans un premier temps, les chercheurs ont percé des micro trous avant d'introduire l'extrémité d'une micro-pipette dans le cerveau des rongeurs au niveau du glomérule. Puis ils ont eu recours à l'émission de courant électrique et à des techniques de micro fluorescence pour visualiser l'ensemble des 250 neurones ici compris dans ce micro-circuit. Du jamais vu dans le domaine de la nano ingénierie. Et une étape indispensable à une meilleure compréhension du fonctionnement des dizaines de milliards de neurones qui forment le cerveau humain. Article rédigé par Georges Simmonds Nature | | | |
| Des scientifiques de l'Université de Guelph au Canada ont découvert que les oméga-3 marins seraient huit fois plus efficaces que les oméga-3 provenant des plantes pour empêcher le développement et la croissance des tumeurs. Ces chercheurs ont comparé l'efficacité anticancéreuse des acides gras oméga-3 provenant des plantes et des océans sur le développement des tumeurs mammaires. Il existe trois types d'oméga-3, l'acide alpha-linolénique (ALA) qui est à base de plantes et que l'on retrouve dans les graines de lin, les noix et dans les huiles telles que le soja. Egalement, l'acide eicosapentaénoïque (EPA) et l'acide docosahexaénoïque (DHA) que l'on retrouve dans les poissons ou dans les algues. Les scientifiques ont nourri in utero des souris ayant une forme très agressive de cancer du sein humain. Leur alimentation comprenait des oméga-3 issus de plantes ou issus du milieu marin. Les résultats ont montré que l'exposition aux oméga-3 marins réduisait la taille des tumeurs de 60 à 70 % et le nombre de tumeurs de 30 %. Pour parvenir à ces mêmes résultats, des doses plus élevées d'oméga-3 à base de plantes ont été nécessaires. Le professeur David Ma, principal auteur de l'étude, a expliqué : "Les souris ont été exposées aux différents oméga-3 avant même que les tumeurs ne se développent, ce qui nous a permis de comparer l'efficacité des acides gras à la prévention" avant de poursuivre : "on savait jusqu'ici que l'EPA et le DHA peuvent inhiber la croissance des tumeurs mammaires, mais personne n'avait examiné directement l'efficacité de ces oméga-3 par rapport à l'ALA". Les scientifiques ont également expliqué le mécanisme des oméga-3 : les acides gras activent les gènes associés au système immunitaire et bloquent les voies de croissance des tumeurs. Le professeur David Ma en a conclu : "En voyant les avantages significatifs que les oméga-3 peuvent avoir dans la lutte contre une forme très agressive de cancer du sein, les oméga-3 seront probablement bénéfiques pour d'autres types de cancer." Article rédigé par Georges Simmonds pour RT Flash Guelph | | | |
| Les chercheurs de l’Institut de technologie du Massachusetts (MIT) ont récemment annoncé avoir mis au point un système capable de délivrer l’équivalent d’un millimètre cube de médicaments directement dans des zones spécifiques du cerveau. Il s’agit d’une aiguille d’un diamètre avoisinant celui d’un cheveu humain. Ce nouveau système pourrait permettre de traiter des maladies affectant le cerveau à travers des circuits ou des régions bien spécifiques, sans blesser d’autres zones voisines ni interagir avec elles. L’aiguille ultra-fine contient ici des petits tubes capables d’administrer des médicaments beaucoup plus profondément. Les chercheurs expliquent avoir réussi à administrer une dose de médicament dans le cerveau de rats, plus précisément dans la région spécifique qui concerne la fonction motrice du rongeur. « Nous pouvons infuser de très petites quantités de médicaments multiples par rapport à ce que nous pouvons faire par voie intraveineuse ou orale, et manipuler les changements de comportement par perfusion de médicaments », précise Canan Dagdeviren, professeur adjoint au MIT et auteur principal du document. Les chercheurs ont ici non seulement réussi à délivrer des médicaments à des endroits spécifiques avec une extrême précision mais ils ont également pu injecter une dose distincte de solution saline pour éliminer le médicament, leur permettant d’avoir un contrôle maximal sur le traitement. Article rédigé par Georges Simmonds pour RT Flash Science Translational Medicine | | | |
| Notre cerveau est constamment bombardé d’informations sensorielles. Des chercheurs de Neurospin (CEA/Inserm) ont découvert comment le cerveau intègre et filtre ces nombreuses informations pour ne pas être saturé. En combinant des techniques d’imagerie cérébrale à haute résolution temporelle et des algorithmes d’apprentissage automatique (machine learning), les neurobiologistes ont pu déterminer la séquence d’opérations neuronales qui permet au cerveau de sélectionner spécifiquement l’information pertinente. La majeure partie de l’information est traitée et filtrée inconsciemment par notre cerveau. Au sein de ce flux, l’information pertinente est sélectionnée par une opération en trois étapes, et diffusée vers les régions associatives du cerveau afin d’être mémorisée. Ces chercheurs ont mesuré l’activité du cerveau de 15 participants, pendant que ces derniers devaient repérer une image « cible » dans un flux de 10 images par seconde. Les neurobiologistes ont ainsi pu observer trois opérations successives permettant aux participants de traiter et de trier le flux d’images. Dans un premier temps, même si une dizaine d’images est présentée chaque seconde, chacune de ces images est analysée par les aires sensorielles du cerveau pendant environ une demi-seconde. Ceci constitue une première phase de traitement automatique, inconscient et sans effort pour nous. Dans un deuxième temps, lorsqu’on demande aux participants de porter attention et de mémoriser une image en particulier, ce n’est pas uniquement l’image ‘cible’ qui est sélectionnée, mais toutes les images qui sont encore en cours de traitement dans les régions sensorielles. L’attention du sujet aura pour effet d’amplifier les réponses neuronales induites par ces images. Enfin, la troisième phase de traitement correspond au rapport conscient du sujet. Seule l’une des images sélectionnées induit une réponse cérébrale prolongée et impliquant les régions pariétales et frontales. C’est cette image que le sujet indiquera avoir perçue. « Dans cette étude, nous montrons que le cerveau humain est capable de traiter plusieurs images simultanément, et ce de manière inconsciente », explique le chercheur Sébastien Marti, qui signe cette étude avec Stanislas Dehaene, directeur de Neurospin (CEA/Inserm). « L’attention booste l’activité neuronale et permet de sélectionner une image spécifique, pertinente pour la tâche que le sujet est en train d’accomplir. Seule cette image sera perçue consciemment par le sujet », poursuit le chercheur. Assailli par un nombre toujours croissant d’informations, notre cerveau parvient ainsi, malgré tout, à gérer le surplus de données grâce à un filtrage automatique, sans effort, et un processus de sélection en trois phases. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| Pixium Vision, qui développe des implants électroniques de restauration partielle de la vue, a annoncé avoir activé avec succès son nouveau dispositif Prima sur une première personne atteinte de la forme sèche de la dégénérescence maculaire liée à l'âge (DMLA). "L'activation du système de vision bionique a permis de restituer la perception de signaux lumineux, dans de bonnes conditions de tolérance, et permet au patient de poursuivre la phase de rééducation prévue par le protocole clinique" sur 6 mois, a indiqué la société française de technologies médicales ("medtech"). Réalisée sur une patiente de 66 ans, cette première implantation de Prima a été effectuée à la Fondation ophtalmologique Rothschild à Paris, dans le cadre d'une étude de faisabilité qui comprendra cinq patients au total, a précisé Khalid Ishaque, PDG de Pixium Vision. Micro-puce photovoltaïque d'à peine plus de 2 millimètres d'épaisseur, Prima est constituée de 378 électrodes, plus du double de son prédécesseur, Iris II, et fonctionne sans fil. Implantée sous la rétine par chirurgie, Prima convertit le signal infra-rouge, reçu d'une interface visuelle externe munie d'une mini-caméra, en un signal électrique transmis au cerveau par l'intermédiaire du nerf optique. Pixium Vision a par ailleurs reçu début janvier l'autorisation de l'Agence américaine du médicament (FDA) pour réaliser une autre étude de faisabilité de Prima sur cinq patients aux Etats-Unis, également dans la forme atrophique sèche de la DMLA, cause majeure de perte irréversible de la vision qui touche actuellement environ 4 millions de personnes dans le monde. En cas de succès de l'étude de faisabilité en cours, une étude plus large sera menée en Europe en 2019 et "on espère un marquage CE début 2021 dans la DMLA pour Prima", a précisé M. Ishaque. La société espère également développer à terme ce nouveau dispositif pour les patients atteints de rétinite pigmentaire, comme pour Iris II. Article rédigé par Georges Simmonds pour RT Flash Pixium Vision | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|