| | | | | | | Edition du 19 Novembre 2021 |
| |
|
| Edito ARN messager et ARN interférent : une nouvelle révolution médicale est en marche…
APPEL aux DONS pour PERMETTRE à RT FLASH de CONTINUER à ÊTRE PUBLIÉ SANS PUBLICITÉ et GRATUITEMENT CHAQUE SEMAINE Par ailleurs RT FLASH ne reçoit plus la moindre subvention publique. Somme collectée au 18 Novembre 2021 : 6.602 euros Nombre de donateurs : 90 Avec cette somme, jusqu'à quelle date en 2022 pourra paraître gratuitement RT Flash chaque semaine, sans publicité : 25 Mai 2022 L'ADIST a été qualifiée d'Association d'Intérêt Général. Les dons qui sont faits à notre association ouvrent droit à une réduction fiscale de 66 % en respect des articles 200 et 238 du Code Général des Impôts. Ainsi, si vous nous faites le plaisir de faire un don de 30 euros, vous bénéficierez d'une réduction de 20 € sur vos impôts et si votre bonté allait jusqu'à 300 euros de don pour permettre à RT Flash de survivre, ce serait une réduction de 200 euros que vous constateriez sur le montant des impôts qu'il vous faudrait régler. Sans vous tous qui acceptez de faire des dons, RT Flash n'existerait plus. Nous avons bien conscience de la précarité de notre situation mais vous remercier chaque semaine avec des articles et un édito dont les rédacteurs et moi-même sommes totalement bénévoles nous apporte beaucoup de joie et de bonheur. René Trégouët Sénateur Honoraire Créateur du Groupe de Prospective du Sénat Rédacteur en Chef de RT Flash Editorial : ARN messager et ARN interférent : une nouvelle révolution médicale est en marche… Avec la pandémie de Covid-19, les premiers vaccins à ARN messager de l’histoire de la médecine ont été largement médiatisés, et le grand public a ainsi pu apprendre que, contrairement à une idée assez répandue, l’ARN messager, ou ARNm, n’était pas une découverte récente, puisque son principe fondamental avait été découvert en 1961, par trois grands biologistes français, Jacques Monod, François Jacob et André Lwoff (tous trois récompensés par le prix Nobel de médecine en 1965), qui montrèrent que l’expression des gène n’était pas continue, mais activée à la demande, grâce à l’action de protéines régulatrices, les ARNM, qui sont capables de réaliser des « photocopies » des instructions contenues dans l̵ 7;ADN, puis de porter celles-ci jusqu’aux bonnes cellules qui peuvent alors, grâce à ces plans précis, fabriquer les protéines dont elles ont besoin. Mais à côté de l’ARNm, il existe un autre acide ribonucléique beaucoup moins connu, et pourtant porteur d’immenses potentialités thérapeutiques, l'ARN interférent, ou ARNi, qui a valu à ses découvreurs américains, Andrew Fire et Craig Mello, le Nobel de médecine en 2006. Contrairement aux ARRm qui permettent de stimuler la production d'une protéine utile, comme un antigène viral qui servira à l'élaboration d'un vaccin, les ARNi vont agir au niveau d’un gène précis pour bloquer, par un processus appelé « silençage », la production d'une protéine pathogène, c’est-à-dire responsable d’une maladie. La chercheuse, Katalin Kariko, pionnière de l’ARNm, souligne le caractère très particulier de ces ARNi, qui n'ont pas besoin de lipides de protection car il s'ag it de doubles brins très courts. On le sait peu, mais plusieurs médicaments utilisant la technique à ARNi sont déjà disponibles. C’est notamment le cas du Translarna, dans le traitement de la dystrophie musculaire de Duchenne, du Leqvio (inclisiran), un anti-PCSK9, pour traiter l'hypercholestérolémie, de l’Oxlumo (lumasiran) dans le traitement de l’hyperoxalurie primitive de type 1, du Givlaari (givosiran), dans la porphyrie hépatique aiguë, ou encore de l’Onpattro (patisiran) dans l'amylose héréditaire. Le patisiran a prouvé son efficacité pour améliorer la qualité de vie des patients dans le cadre de l’étude Appolo, la plus vaste étude du genre réalisée chez des patients atteints d'amylose avec polyneuropathie. Dans les 10 années à venir, une quarantaine d’autres molécules ARNi pourraient arriver sur le marché, principale ment pour traiter de nombreux types de cancer. Il y a quelques semaines, le laboratoire Dicerna Pharmaceuticals a annoncé le lancement d'une étude de phase 1, soutenue par le gouvernement américain, visant à évaluer l’efficacité d’un ARNi – le DCR-AUD, capable de bloquer l'expression du gène ALDH2. Or, il se trouve que ce gène, lorsqu’il est défectueux, ce qui est le cas chez certaines personnes identifiées, provoque un fort dégoût physiologique à la moindre consommation d’alcool. Ces scientifiques font donc l’hypothèse qu’en provoquant à la demande un tel effet répulsif, il serait peut-être possible de proposer une nouvelle thérapie à certains patients incapables de maîtriser leur consommation d’alcool. Outre-Manche, le gouvernement britannique va lancer une vaste expérimentation visant à diminuer la quantité de cholestérol sanguin chez plus de 300 000 malades, grâce à un traitement novateur, lui aussi à base d’ARNi, développé par le laboratoire Novartis. Ce traitement, baptisé Inclisiran, sera administré par injection sous-cutanée aux personnes sélectionnées deux fois par an au cours des trois prochaines années. Il sera prescrit à trois groupes de patients : d’abord à ceux qui souffrent d’une maladie génétique entraînant un taux de cholestérol élevé, ensuite à ceux qui ont déjà été victimes d’une crise cardiaque ou d’un accident vasculaire cérébral, et enfin, à ceux qui sont réfractaires aux traitements hypocholestérol& eacute;miants classiques. L’inclisiran devrait permettre un silençage génique visant à empêcher la production d’une protéine appelée PCSK9. Celle-ci joue un rôle-clé dans la régulation du cholestérol dans notre organisme, mais, dans le cas des patients présentant un taux élevé de cholestérol LDL (le mauvais cholestérol), cette protéine est produite en excès, d’où l’idée d’utiliser un ARNi qui va venir se fixer à l’ARNm qui porte les instructions pour la protéine PCSK9, puis va rendre illisible ces instructions, empêchant ainsi la production de PCSK9. Dans la plupart des thérapies géniques, lorsque l’on veut acheminer jusqu’aux cellules malades une version saine d’un gène déficient, on utilise généralement un virus désactivé pour administrer le traitement. Le problème, c’est qu’il est difficile d’utiliser à plusieurs reprises ces vecteurs viraux sur un même patient, sous peine de provoquer des réactions immunitaires indésirables. Pour contourner cet obstacle, les chercheurs essayent alors de recourir à des vecteurs non viraux, parfois encapsulés dans des nanoparticules lipidiques. S’agissant de la nouvelle thérapie britannique contre le cholestérol, l’ARNi n’a pas besoin d’être enrobé dans une nanoparticule protectrice : il est en effet conçu de façon à pouvoir circuler directement dans le réseau sanguin, jusqu 8217;au foie. Une fois sur place, cet ARNi reconnaît immédiatement les cellules-cibles, grâce à un ligand, une molécule qui possède la propriété de se lier de manière réversible à une macromolécule ciblée, protéine ou acide nucléique, De nombreux médicaments de silençage génique font actuellement l’objet d’études pour traiter de nombreuses pathologies, qui vont de certains cancers (mélanome, pancréas, cerveau,), aux troubles neurologiques, comme la maladie d’Alzheimer ou de Huntington, en passant par des maladies de la vision, comme la dégénérescence maculaire et le glaucome. Un autre ARNi, le téprasiran est capable de bloquer la production de la protéine p53, impliquée dans la transcription de nombreux gènes. Récemment, un essai de phase 2, en double aveugle contre placebo, a montré, sur 360 patients ayant subi une chirurgie cardiaque présentant un fort risque d’insuffisance rénale aiguë (IRA), une diminution sensible de la fréquence et de la gravité de ces IRA, une semaine après l’intervention (Voir AHA Journals). L’ARNi pourrait bien également révolutionner la lutte contre le cancer en offrant un redoutable outil qui permettra de provoquer le suicide des cellules malignes, mais sans toucher les cellules saines (Voir Nature Communications). On sait que notre organisme produit en permanence, à cause de multiples facteurs, dont l’accumulation de mutations génétiques, des cellules malignes, qui sont heureusement le plus souvent repérées et éliminées par les multiples lignes de défense de notre système immunitaire. Ces cellules cancéreuses ont perdu leur capacité d’apoptose, une propriété qui permet le suicide cellulaire, par la synthèse de petits ARN interférents, dont la séquence est complémentaire de celle de l'ARN visé. Des chercheurs de la Northwestern University à Chicago ont donc eu l'idée d'utiliser des ARN interférents pour réactiver le mécanisme d’apoptose défaillant des cellules cancéreuses. Ces recherches ont pu montrer que les cellules cancéreuses mouraient après introduction de certains ARN interférents. En outre, ces scientifiques ont pu observer avec satisfaction que les cellules cancéreuses traitées avec les molécules d'ARN ne devenaient jamais résistantes, car ces ARN interférents désactivaient simultanément plusieurs gènes nécessaires à la survie de ces cellules malignes, et celles-ci mouraient, sans avoir eu le temps de développer une résistance face à ces attaques multiples. Ces travaux ont également montré, de manière remarquable, que cette action de restauration de l’apoptose ne nécessitait même pas un ARN interférent entier, mais un simple fragment de seulement 6 nucléotides (éléments constitutifs de l'ADN et de l'ARN). Après avoir testé les 4.096 combinaisons diff érentes de cette séquence de 6 nucléotides, ces chercheurs ont découvert la plus toxique pour les cellules cancéreuses et ils s’attellent à présent à concevoir des micro ARN artificiels encore plus puissants contre les cellules cancéreuses que ceux développés par la nature. Il y a quelques semaines, des chercheurs du MIT et de l'Université Harvard ont conçu un moyen d'activer de manière sélective les thérapies géniques dans les cellules cibles, y compris les cellules humaines. Leur technologie peut détecter des séquences d'ARN messager spécifiques dans les cellules, et cette détection déclenche ensuite la production d'une protéine spécifique à partir d'un transgène ou d'un gène artificiel (Voir Nature biotechnology). Cette nouvelle approche devrait considérablement élargir le champ d’action des thérapies géniques, notamment dans le domaine du cancer. Ces chercheurs vont à présent essayer de développer de nouvelles thérapies pour détruire les tumeurs en concevant leur systè ;me à base d’ARN de manière à identifier les cellules cancéreuses, puis à produire une protéine toxique à l'intérieur de ces cellules, pour les détruire de manière rapide et sélective. « Cette nouvelle technique représente un saut conceptuel dans le contrôle et la programmation du comportement des cellules des mammifères. Elle permettra à terme d’agir directement sur les cellules, afin que celles-ci réagissent de manière efficace, face à une multitude d’agents pathogènes, bactéries ou virus », souligne le Professeur Martin Fussenegger, chercheur à l’Ecole Polytechnique de Zurich. En avril dernier une équipe française de l’Inserm, dirigée par Nicolas Tricaud a également réalisé une remarquable percée en expérimentant avec succès une thérapie génique à base d’ARNi contre la pathologie de Charcot Marie Tooth de type 1A, qui affecte les nerfs périphériques (Voir Nature communications). Cette maladie entraîne des atrophies musculaires au niveau des extrémités des membres, des déformations des mains et des pieds et un handicap à la marche. Le type 1A de cette pathologie est provoqué par une anomalie du gène codant pour la protéine PMP22. Ce dysfonctionnement génétique provoque une dégénérescence de la gaine de myéline, qui ne peut plus assurer la bonne conduction d e l’influx nerveux. La thérapie génique imaginée par ces chercheurs vise à apporter dans les cellules de Schwann touchées par la maladie un ARNi qui va bloquer l’expression du gène PMP22 et réduire ainsi drastiquement la production de la protéine fautive. Ces ARNi ont été acheminés, à l’aide d’un vecteur viral, vers les cellules de Schwann en étant directement injectés dans le nerf sciatique de rats atteints par la maladie. L’étude souligne que les résultats ont dépassé les attentes des chercheurs, puisqu’une seule injection a suffi pour restaurer un niveau d’expression normale de la protéine PMP22, ce qui a supprimé les déficiences motrices et sensorielles pendant un an, une durée qui correspond à un tiers de la vie de l’animal. Dans ce domaine d’avenir des ARN thérapeutiques, il faut également évoquer les travaux d’une équipe de chercheurs de l’Université de Tel-Aviv, qui vient de développer une technique capable de cibler et détruire des cellules cancéreuses, sans effet secondaire, ni récidive. Ces scientifiques, dirigés par le Professeur Dan Peer, ont réussi à utiliser une nanoparticule lipidique pour l’acheminement d’ARNm vers des tumeurs malignes. Baptisée CRISPR-LNPs, cette stratégie thérapeutique embarque un messager génétique encodant une enzyme spécifique qui agit comme un ciseau moléculaire. Les résultats de l’étude montrent une amélioration significative du taux de survie global dans deux cancers, parmi les plus mortels, le cancer métastatique de l’ovaire (+ 80 %) et le glioblasto me (+ 30 %), (Voir Science Advances). S’agissant de la révolution en cours de l’ARN messager, on ne peut que déplorer le retard de la recherche française, notamment en termes de vaccins, alors que L'ARN messager a été découvert, je l'ai rappelé, il y a plus de 60 ans, par deux très grands scientifiques Français, François Jacob et Jacques Monod. Il est regrettable que, ni le groupe Pasteur, il y a 30 ans, ni Sanofi, plus récemment n’aient véritablement perçu toutes les potentialités incroyables de ces ARRm. On peut aussi s’étonner que la percée décisive vers les vaccins à ARN réalisée en 2005 par la chercheuse américaine d’origine hongroise Katalin Kariko (devenue Vice-Présidente de BioNTech en 2013), pour prévenir la réponse inflammatoire à l'ARN messager, avancée qui permet à l’ARN synthét ique de ne pas être reconnu par le système immunitaire, n’ait pas été appréciée à sa juste valeur par les grands laboratoires français. Le fait que Sanofi se soit finalement résolu à abandonner son projet de vaccin ARN anti-Covid, qui serait arrivé sur le marché bien trop tard par rapport à la concurrence, en dit long sur l’échec cuisant, à la fois scientifique et industriel, de notre pays dans la maîtrise de cette technologie qui est déjà au cœur d’une immense révolution médicale. Sans doute faut-il chercher les causes de ce manque de clairvoyance et d’anticipation de notre recherche, non dans la qualité reconnue de nos chercheurs, mais plutôt dans la rigidité institutionnelle et l’insuffisance d’une culture scientifique et industrielle du risque et de l’audace, comme celle qui caractérise le monde anglo-saxon. Il faut souhaiter que notre pays sache rapidement tirer toutes les leçons de ses échecs dans ce domaine si prometteur de la recherche biologique et médicale et se tourne résolument vers l’avenir en bâtissant un écosystème scientifique et industriel souple, créatif et réactif, entièrement dédié à l’ARN préventif (vaccins à ARNm) et thérapeutique (vecteurs d’ARNi). Il faut en effet bien comprendre que les Etats et laboratoires qui sauront les premiers exploiter les prodigieuses potentialités complémentaires des ARNm et des ARNi en matière de santé et de médecine, et les rendre accessibles au plus grand nombre, prendront une avance décisive dans le secteur-clé des biotechnologies qui sera, demain, l’un des principaux moteurs de l’innovation et de la compétitivité économique mo ndiales. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | Intel vient de dévoiler son nouveau processeur neuromorphique Loihi 2, qui marie l'électronique conventionnelle avec l'architecture du cerveau humain. Selon le fondeur, cette puce est environ 10 fois plus rapide que la précédente grâce à la multiplication par huit du nombre de neurones numériques qui imitent la façon dont le cerveau traite les informations. Les possibilités de programmation de la puce ont été également améliorées afin de faciliter le travail des chercheurs. Loihi 2 a été conçu à l'aide d'une version de préproduction du processus de fabrication Intel 4, une méthode qui sera utilisée pour produire ses processeurs grand public qui arriveront en 2023. Le processus Intel 4 permet de graver des composants électroniques de manière plus dense. Pour le Loihi 2, il s’agissait de faire tenir un million de neurones numériques sur une puce de 30 millimètres carrés. Les puces neuromorphiques Loihi sont particulièrement efficaces pour repérer rapidement les entrées sensorielles telles que les gestes, les sons et même les odeurs, explique Mike Davies, responsable du groupe Intel Labs. Certaines expériences ont porté sur la peau artificielle qui pourrait donner aux robots un meilleur sens du toucher. Loihi 2 est composé d'un million de neurones numériques : L'informatique neuromorphique diffère de l'intelligence artificielle car elle se concentre davantage sur les caractéristiques physiques de la matière grise humaine. Les processeurs neuromorphiques sont également très différents des puces conventionnelles. Ainsi, Loihi 2 stocke des données en quantités infimes réparties sur son réseau de neurones, et non dans une grande banque de mémoire, et il n'y a pas d'horloge centrale pour synchroniser les étapes de calcul sur la puce. Vous ne trouverez pas le Loihi 2 dans votre téléphone ou votre ordinateur portable. Il est plutôt destiné aux centres de R&D des constructeurs automobiles, des laboratoires nationaux et des universités. Par exemple, le réseau ferroviaire allemand Deutsche Bahn teste actuellement sa capacité à optimiser les horaires des trains. Intel n'est pas le seul à développer ce type de processeur. En Europe, le Human Brain Project intègre l'informatique neuromorphique dans ses travaux. La façon dont le sang circule dans le cerveau a inspiré IBM pour alimenter et refroidir les puces avec des liquides dans une batterie à flux. Samsung a utilisé la puce neuromorphique TrueNorth d'IBM pour recréer la vision. Le Loihi 2 d'Intel est composé d'un million de neurones numériques qui peuvent être connectés de n'importe quelle manière. Pour le faire fonctionner, il faut configurer les connexions appropriées entre les neurones. Cette conception signifie que la puce nécessite très peu d'énergie lorsqu'elle est inactive et qu'elle peut traiter les données très rapidement à la demande, explique Intel. Le million de neurones que contient une puce est loin des milliards que compte un cerveau humain. Mais Intel essaie de rendre chaque neurone plus intelligent qu'une cellule biologique. Par exemple, dans le cerveau humain, les signaux électriques sont soit totalement activés, soit totalement désactivés. Dans les puces Loihi, Intel peut attribuer une force différente à chaque signal, ce qui augmente la sophistication du traitement. Par ailleurs, les processeurs Loihi peuvent être interconnectés afin d’augmenter la capacité de calcul. La nouvelle version dévoilée par Intel améliore notamment la mise en réseau en raccourcissant les voies de communication entre les neurones. Article rédigé par Georges Simmonds pour RT Flash CNET | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | En quelques semaines, Jean Philippe Lemaître a réussi à se lever de son fauteuil roulant. Victime d'un accident du travail qui a touché ses vertèbres cervicales, il a perdu l'usage de ses jambes. En cours de rééducation, il a pu bénéficier de l'aide de ce robot accompagné par les kinésithérapeutes. Cet exosquelette se porte un peu comme un vêtement, il assiste le patient lors de ses mouvements. Une aide précieuse pour accompagner les efforts très importants que requiert une rééducation. « Se voir marcher ça fait plaisir ! Ça fait du bien au moral, on se dit que c'est que le début, ça va encore s'améliorer » commente Jean Philippe, visiblement essoufflé et ému. « Sans la machine, Jean Philippe on aurait pu aussi le faire retravailler debout avec notre mat&ea cute;riel mais ça aurait demandé plus de coût énergétique et pour lui et pour nous », explique Mélanie Giannesini, Kinésithérapeute à l'Hôpital Henry Gabrielle. Grâce à ce robot, la force du patient peut être multipliée par 10, ce qui lui permet d'être acteur de sa santé et de son parcours de rééducation. « Cela est rendu possible par l’action sur la neuro-plasticité cérébrale de cette rééducation intensive durant laquelle le patient est challengé en permanence à la limite de ses possibilités » précisent les Hospices Civils de Lyon. Un outil exceptionnel de rééducation qui a représenté un investissement de 219 000 euros, co-financés par l'Agence Régionale de Santé, la Région Auvergne Rhône-Alpes et les HCL. Article rédigé par Georges Simmonds pour RT Flash FR3 | | ^ Haut | |
|
| | | Une équipe de recherche internationale, dirigée par Skoltech et IBM, a créé un commutateur optique extrêmement économe en énergie qui pourrait remplacer les transistors électroniques dans une nouvelle génération d’ordinateurs manipulant des photons plutôt que des électrons. En plus d’une économie d’énergie directe, le commutateur ne nécessite aucun refroidissement et est très rapide : à 1 000 milliards d’opérations par seconde, il est entre 100 et 1 000 fois plus rapide que les transistors commerciaux haut de gamme d’aujourd’hui. « Ce qui rend le nouvel appareil si économe en énergie, c’est qu’il ne prend que quelques photons pour changer », a commenté le premier auteur de l’étude, le Docteur Anton Zasedatelev. « En fait, dans nos laboratoires Skoltech, nous avons réussi la commutation avec un seul photon à température ambiante ! Cela dit, il reste un long chemin à parcourir avant qu’une telle démonstration de preuve de principe ne soit utilisée dans un coprocesseur tout optique », a ajouté le professeur Pavlos Lagoudakis, qui dirige les laboratoires de photonique hybride à Skoltech. Étant donné qu’un photon est la plus petite particule de lumière qui existe dans la nature, il n’y a vraiment pas beaucoup de place pour l’amélioration au-delà de cela en ce qui concerne la consommation d’énergie. La plupart des transistors électriques modernes nécessitent des dizaines de fois plus d’énergie pour commuter, et ceux qui utilisent des électrons uniques pour obtenir des efficacités comparables sont beaucoup plus lents. Outre les problèmes de performances, les transistors électroniques à économie d’énergie concurrents ont également tendance à nécessiter un équipement de refroidissement encombrant qui, à son tour, consomme de l’énergie et influe sur les coûts d’exploitation. Le nouvel interrupteur fonctionne commodément à température ambiante et contourne donc tous ces problèmes. En plus de sa fonction principale de type transistor, le commutateur pourrait agir comme un composant qui relie les appareils en faisant la navette entre eux sous forme de signaux optiques. Il peut également servir d’amplificateur, multipliant l’intensité d’un faisceau laser entrant jusqu’à 23 000. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| L’hydrogène est un gaz extrêmement léger qui possède une très faible densité volumique à la pression atmosphérique. Deux techniques sont principalement utilisées pour réduire son volume et le stocker efficacement. La première, la plus courante, consiste à le comprimer à 700 bar, et la seconde à le transformer en liquide en le refroidissant à très basse température (-252,87°C). Depuis quelques années, une autre méthode, par voie chimique, connaît un regain d’intérêt et consiste à héberger le gaz au milieu de molécules de liquides organiques porteurs d’hydrogène. D’abord appelé Organic Liquid Hybrides, ce procédé est à présent plus connu sous le nom de LOHC pour Liquid Organic Hydrogen Carrier. Avec Valérie Meille, sa collègue de IRCELYON (Institut de recherches sur la catalyse de Lyon), Isabelle Pitault, chercheuse au LAGEPP (Laboratoire d’automatique, de génie des procédés et de génie pharmaceutique) travaille sur cette technologie depuis une quinzaine d’années. « Le stockage de l’hydrogène sous pression ou liquide nécessite de fabriquer des réservoirs spéciaux, très coûteux et qui ne sont pas encore complètement fiables aujourd’hui », analyse la chercheuse. « Les molécules d’hydrogène ont la particularité de se diffuser dans tous les matériaux et on n’a pas encore réussi à concevoir des matériaux totalement étanches. À long terme, il peut se produire des pertes si on laisse de l’hydrogène sous pression ou liquide dans un r&ea cute;servoir. L’avantage du procédé LOHC est qu’il est possible d’utiliser toutes les infrastructures pétrolières déjà existantes pour le stockage, car les molécules porteuses de l’hydrogène ont les mêmes propriétés que le pétrole ». Le couple de molécules toluène/méthylcyclohexane a longtemps été utilisé pour mettre en œuvre ce procédé. Concrètement, le toluène est la molécule de départ, que l’on associe à de l’hydrogène grâce à une réaction d’hydrogénation, dans des conditions que l’on peut qualifier de douces puisque l’hydrogène est comprimé à 30 bar, à des températures comprises entre 90 et 150 degrés. Cette réaction donne naissance à une molécule de stockage appelée méthylcyclohexane et a la particularité d’être exothermique. L’énergie libérée peut ainsi être valorisée en couplant cette première étape avec par exemple un réseau de chaleur. Pour « déstocker &raq uo; l’hydrogène emprisonné, une réaction chimique de déshydrogénation est nécessaire. Celle-ci se déroule à pression atmosphérique, mais nécessite une température très élevée de 320 degrés. « Il faut beaucoup d’énergie pour libérer l’hydrogène, c’est pour cela que ce procédé ne s’est pas développé », explique Isabelle Pitault. « Si vous avez de l’énergie disponible à proximité avec la présence d’une aciérie ou d’un cimentier, cette contrainte peut être levée. Sinon, il est nécessaire de brûler une partie de l’hydrogène, ce qui représente une consommation de 25 % de ce gaz. Mais si l’on compare ce besoin énergétique avec les deux autres méthodes, cette consommation est presque équivalente puisque la compression de l’hydrogène nécessite 20 % de l’énergie interne mobilisée et celle pour fabriquer de l’hydrogène liquide 30 %. Une différence se situe au nivea u de l’étape durant laquelle ce besoin énergétique est nécessaire. Pour l’hydrogène sous pression ou liquide, ce besoin se situe au moment du stockage tandis que pour le LOHC, c’est au déstockage ». Pendant de nombreuses années, ce procédé a fait l’objet de critiques, car les molécules utilisées sont dérivées du pétrole. Aujourd’hui, ces critiques n’ont plus lieu puisque plusieurs études démontrent qu’il est possible de synthétiser le toluène à partir de la biomasse, notamment la lignine. Par ailleurs, les molécules utilisées ne sont pas détruites à chaque stockage/déstockage, car elles servent uniquement de réservoirs pour accueillir l’hydrogène. « On peut prendre l’image d’une batterie ; vous n’allez pas la jeter après la première décharge », s’exclame la chercheuse. « Certes, certaines molécules utilisées ont tendance à se dégrader au fur et à mesure des cycles, mais il est possible de les resynthétiser en usine sans avoir besoin de s’approvisionner à nouveau. Le cycle peut donc être vertueux ». À partir du début des années 2000, un autre couple de molécules est fréquemment utilisé, notamment par l’entreprise allemande Hydrogenious : le dibenzyltoluene/perhydrodibenzyltoluene. Ces molécules sont fabriquées par de grands groupes chimiques tels que Sasol et Arkema et sont issues du toluène. Elles servent à fabriquer des fluides caloporteurs capables d’assurer des échanges de chaleur, mais peuvent aussi être utilisées pour le procédé LOHC. Le couple toluène/méthylcyclohexane présente l’inconvénient de devoir réaliser une réaction en phase gazeuse lors de l’étape de déshydrogénation, puis la mise en œuvre d’un système de séparation et de purification de l’hydrogène, qui se révèle gourmand en énergie. L’inté rêt du couple dibenzyltoluene/perhydrodibenzyltoluene réside dans le fait que l’étape de déshydrogénation n’est pas confrontée à cette problématique puisque la molécule conserve en permanence son état liquide. Depuis le début des années 2010, le procédé LOHC connaît un nouvel essor en Europe, surtout à travers la société Hydrogenious. L’entreprise construit en ce moment des usines à Hambourg et aux Pays-Bas dans le port de Rotterdam afin de stocker de l’hydrogène saisonnier issu d’énergies intermittentes (photovoltaïque, éolien). En Asie, la société japonaise Chiyoda se sert de ce système depuis plusieurs années pour transporter de l’hydrogène entre le Japon et Brunei. En Chine, la société Hynertech dépose de multiples brevets et a pour ambition d’alimenter des voitures équipées de piles à combustible. « Le point négatif de leur projet est que l’étape d’hydrogénation est réalisée dans une usine et celle de déshydrogénat ion dans des stations-service », ajoute Isabelle Pitault. « Ceci nécessite de nombreux transports en camion entre les différents sites ». La chercheuse considère que le procédé LOHC a de l’avenir pour le stockage stationnaire de l’hydrogène et la mobilité de type camion. S’agissant des voitures, les constructeurs se sont déjà engagés sur la voie des moteurs électriques et le stockage en batterie. « Selon moi, il est plus avantageux d’installer un électrolyseur dans une station-service pour produire de l’hydrogène puis de réaliser la réaction d’hydrogénation sur place. La chaleur dégagée lors de cette première étape peut alors servir à alimenter un quartier en chauffage. La réaction de déshydrogénation est ensuite réalisée dans le véhicule. Il convient alors de l’équiper de deux réservoirs, l’un accueillant les molécules chargées en hydrogène et l’ ;autre permettant de les récupérer après le déstockage ». Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Les graines des arbres sont essentielles pour la régénération des forêts, qui rendent de nombreux services écosystémiques. Pour les gérer et les conserver efficacement, il est essentiel de savoir si des baisses de fécondité sont susceptibles de se produire au cours de la vie de l'arbre, et à quelle taille ou à quel âge. Pour près de 80 % des espèces examinées par les scientifiques d’INRAE et de l'université Duke, la fécondité des arbres, ou leur potentiel de reproduction, atteint un pic ou un plateau lorsqu'ils parviennent à la taille adulte, puis diminue. Ce déclin de la fécondité observé chez les grands arbres est cohérent avec leur déclin physiologique et fournit ainsi de nouvelles preuves de la sénescence des arbres. Les 20 % d'espèces restantes connaissent probablement aussi un déclin de leur fécondité à partir d'une certaine taille, mais il n’existe actuellement pas suffisamment de données pour l’affirmer. Le remplacement régulier des cultures d'arbres fruitiers avant que leurs rendements ne diminuent, et la difficulté de surveiller la production de graines chez les arbres en dehors des cultures, limitent les données disponibles sur la production de graines aux derniers stades de développement d'une espèce. Jusqu’ici, les scientifiques ont donc extrapolé la fécondité des très vieux arbres sur la base des observations des stades juvéniles. Cependant, les arbres ne produisent pas nécessairement un nombre régulier de graines chaque année, quels que soient leur taille et leur âge, avec parfois d'énormes variations d'une année & agrave; l'autre et d'un arbre à l'autre. Ainsi, l'utilisation des observations des stades juvéniles pour prédire la production des arbres sénescents peut conduire à une surestimation du potentiel réel d'un arbre. De plus, observer directement ou prévoir au plus juste le nombre de graines produites est difficile. Plus de 60 scientifiques de 13 pays et territoires (France, États-Unis, Chili, Italie, Canada, Pologne, Espagne, Suisse, Japon, Slovénie, Allemagne, Panama, Porto Rico), ont synthétisé les données relatives à la production annuelle de graines et à l'état de maturation de 585 670 arbres individuels appartenant à 597 espèces. L’étude s’appuie sur la base de données mondiale du réseau de sites de recherche à long terme MASTing Inference and Forecasting (MASTIF). Remontant souvent à plusieurs décennies, ces données portent sur plus de 500 sites différents en Amérique du Nord, Amérique du Sud, Asie, Europe et Afrique. Cette importante base de données brutes a permis aux chercheurs de développer un modèle calibré pour éviter la surestimation et calculer la fécondité à long terme avec plus de précision. Article rédigé par Georges Simmonds pour RT Flash Inrae | | | |
| Selon une étude réalisée par des chercheurs des Universités américaines de Princeton et Columbia, même si l'Humanité parvient à limiter le réchauffement climatique à 1,5 degré par rapport à l'ère préindustrielle, 7,6 % de la population mondiale, soit 532 millions de personnes, vont se retrouver dans des zones situées sous le niveau de la mer, avant la fin du siècle. A plus long terme, 12 % de la population mondiale risquent d'être menacées si aucune action n'est prise et que le réchauffement poursuit sa trajectoire actuelle, ont calculé les scientifiques. Ces derniers constatent que la plupart des estimations actuelles de la montée du niveau de la mer et des menaces qu'elle fait peser sur les villes côtières courent jusqu'à la fin du siècle et vont d'un demi-mètre à moins d'un mètre. Mais le phénomène va se poursuivre au-delà de 2100 sous l'effet du réchauffement de l'eau et de la fonte des glaces, quelle que soit la vitesse de réduction des émissions de gaz à effet de serre, insistent-ils. La concentration actuelle de CO2 est de 50 % supérieure à ce qu'elle était en 1800 et la température moyenne à la surface de la Terre a augmenté de 1,1°C. Soit suffisamment pour faire monter le niveau des mers de près de deux mètres, que cela prenne deux siècles ou dix siècles. Ben Strauss, président et chef des chercheurs de l'organisation indépendante de journalistes et scientifiques Climate Central, auteur principal du rapport, prévient : « A Glasgow et jusqu'à la fin de cette décennie, nous avons la possibilité soit d'aider les cent prochaines générations, soit de les trahir ». Article rédigé par Georges Simmonds pour RT Flash IOP Science | | | |
| Une nouvelle étude menée par des chercheurs de l'Université McGill et d'INRAE révèle qu'entre 51 et 60 % des 64 millions de kilomètres de cours d'eau dans le monde cessent de couler périodiquement, ou sont à sec pendant une partie de l'année. C'est le tout premier effort de quantification empirique et de cartographie de la distribution mondiale des rivières et des ruisseaux intermittents. Ces résultats appellent à un changement de paradigme dans la science et la gestion des rivières par la révision de concepts fondamentaux qui supposent traditionnellement un écoulement de l'eau toute l'année dans les rivières et les ruisseaux. La carte des rivières non pérennes résultant de cette étude, la première de ce genre, fournit également des informations de base cruciales pour l'évaluation des changements futurs de l'intermittence du débit des rivières et pour déterminer et surveiller le rôle de ces cours d'eau dans les cycles hydriques et biogéochimiques mondiaux, ainsi que dans le maintien de la diversité biologique. « Les rivières et les ruisseaux non pérennes sont des écosystèmes d'une grande richesse car ils abritent de nombreuses espèces distinctes, adaptées aux cycles de présence et d'absence d'eau », explique Mathis Messager, premier auteur de l'étude et étudiant en doctorat en géographie à la fois à McGill et à l'Institut National de Recherche pour l'Agriculture, l'Alimentation et l'Environnement (INRAE). « Ces rivières sont souvent des sources d'eau et de nourriture essentielles pour les populations et elles jouent un rôle important dans le contrôle de la qualité de l'eau. Mais le plus souvent, elles sont mal gérées ou carrément exclues des actions de gestion et des lois de conservation, car elles sont tout simplement oubliées ». « Compte tenu des changements continus du climat mondial et de l'utilisation des terres, on s'attend à ce qu'une proportion de plus en plus grande du réseau fluvial mondial cesse de couler de façon saisonnière au cours des prochaines décennies », a déclaré Bernhard Lehner, professeur agrégé au département de géographie de l'Université McGill et l'un des coauteurs principaux de l'article. « En fait, de nombreux cours d'eau autrefois pérennes, y compris des sections de fleuves emblématiques tels que le Nil, l'Indus et le Colorado, sont devenus intermittents au cours des 50 dernières années en raison du changement climatique, des transitions dans l'utilisation des terres, ou du prélèvement temporaire ou permanent d'eau pour l'usage humain et l'agriculture ». Les chercheurs ont pu identifier les caractéristiques environnementales les plus importantes pour déterminer si un cours d'eau cesse périodiquement de couler en associant statistiquement des relevés historiques du débit d'eau dans 5 615 endroits du monde avec des informations sur l'hydrologie, le climat, la géologie et la couverture terrestre environnante des cours d'eau surveillés à ces endroits. Ils ont constaté, comme attendu, que les rivières non pérennes sont plus fréquentes dans les zones arides (où l'évaporation est beaucoup plus importante que les précipitations) et que les petits cours d'eau ont généralement un débit plus variable et sont donc plus susceptibles de s'assécher. Mais on trouve également des cours d'eau non pérennes dans les climats tropicaux et même dans l'Arctique, où les rivières gèlen t pendant une partie de l'année. Fait intéressant, l'étude suggère également, sur la base d'estimations préliminaires, que plus de la moitié de la population mondiale vit dans des endroits où le cours d'eau le plus proche n'est pas pérenne. En effet, dans de nombreuses langues, il existe plusieurs mots pour désigner ces types de cours d'eau et leur empreinte sur le paysage, ce qui met en évidence la longue histoire d'interdépendance entre les humains et les systèmes d'eau douce saisonniers. Au cours de la dernière décennie, plusieurs efforts ont été déployés pour mettre en évidence les valeurs et la dégradation rapide et continue des cours d'eau non pérennes. Jusqu'à présent, la plupart des sciences de l'eau douce se sont concentrées sur le fonctionnement et la conservation des masses d'eau pérennes. Ce n'est que récemment que les scientifiques ont commencé à prendre conscience des conséquences importantes de l'intermittence du débit dans les rivières et les ruisseaux. Article rédigé par Georges Simmonds pour RT Flash Eurekalert | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Des étapes cruciales ont été franchies, depuis la publication en 2003 du premier génome humain complet, fruit d’une collaboration internationale. Pourtant, l’assemblage du génome humain nécessite encore aujourd’hui plusieurs jours de traitement et une puissance informatique considérable. Les technologies de séquençage de troisième génération permettent un séquençage de haute qualité et produisent des téraoctets de séquences génomiques, chacune comportant des dizaines de milliers de paires de bases. L'assemblage du génome à partir de données massives reste une tâche difficile, du fait de comparaisons de séquences par paires, à mener parmi une multitude de combinaisons possibles. S’inspirant du traitement automatique de la langue naturelle, des chercheurs de l’Institut Pasteur et du Massachusetts Institute of Technology (MIT) ont utilisé la théorie des graphes pour développer un nouveau logiciel de traitement, appelé « minimizer-space de Bruijn graph (mdBG) », incorporant des courtes séquences nucléotidiques, appelées « minimiseurs », plutôt que des nucléotides uniques. Ce logiciel a ensuite été utilisé pour assembler des données brutes : l’application s’est faite d’abord sur les séquences génomiques de drosophiles Drosophila melanogaster, puis sur le génome humain. Les génomes ainsi obtenus ont été produits en un temps record (10 minutes au lieu de plus de 24h) avec une économie d’énergie considérable. Le mdBG nécessite en effet environ 33 fois moins de temps et 8 fois moins de mémoire vive (RAM), comparé aux autres assembleurs de génomes. « Il a été possible d’assembler rapidement des génomes et métagénomes entiers, de haute qualité, et pour la première fois sans devoir recourir à des ordinateurs puissants », explique Rayan Chikhi, responsable de l’unité Algorithmes pour les séquences biologiques à l'Institut Pasteur et co-auteur de l’étude. « Cette innovation est cruciale pour estimer par exemple les modifications du microbiote intestinal, dans un contexte pathologique et/ou lié aux infections bactériennes, telle que la septicémie. Surtout, elle permet de traiter plus rapidement et in fine de sauver des vies » continue Bonnie Berger, professeur de mathématiques au Computer Science et AI Lab du MIT et co-auteure de ces travaux. En appliquant le mdBG à l’analyse de plus de 600 000 génomes bactériens (issus d’une collection compilée par l’European Bioinformatics Institute), les chercheurs ont en effet pu identifier en 13 minutes tous les gènes de résistance aux antimicrobiens de ces bactéries, un processus qui prenait jusqu’alors 7 heures par requête, via l’alignement standard des séquences. Grâce à cette technologie, les chercheurs vont maintenant pouvoir séquencer des génomes de manières plus efficace et plus rapide, en utilisant du matériel informatique accessible (ordinateur portable). Le logiciel est disponible en open-source et partagé à l’ensemble de la communauté scientifique. Article rédigé par Georges Simmonds pour RT Flash Institut Pasteur | | | |
| Des chercheurs du Centre allemand des maladies neurodégénératives de Göttingen (Allemagne) ont identifié 3 molécules présentes dans le sang qui peuvent indiquer l'apparition future d'une démence. La découverte de ces biomarqueurs (des microARN spécifiques dont la présence dans le sang est en corrélation avec les troubles cognitifs) ouvre la perspective de tests sanguins permettant de diagnostiquer la maladie d'Alzheimer des années à l'avance. « À l'heure actuelle, le diagnostic d’Alzheimer arrive beaucoup trop tard pour même avoir une chance d'avoir un traitement efficace. Si la maladie est détectée tôt, les chances d'influencer positivement sur son évolution augmentent » souligne le Professeur André Fischer, qui a dirigé ces recherches. « Nous avons besoin de tests qui donnent un avertissement précoce. Nous sommes convaincus que les résultats de notre étude actuelle ouvrent la voie à de tels tests ». Dans des tests sur des souris mais aussi sur des humains, les chercheurs ont découvert que plus le taux de ces microARN est bas, meilleures sont les performances obtenues dans les tests de cognition. Et 90 % des patients, dont le taux de marqueurs sanguins était très élevé, ont développé la maladie d’Alzheimer dans les 2 ans. Même s'il a fait la preuve de son efficacité, le test actuel est trop complexe pour être utilisé à grande échelle. L'objectif des chercheurs allemands est de développer un test simple à faible coût, « similaire au test rapide pour le SRAS-CoV-2 à la différence que l'on aurait besoin d'une goutte de sang ». Selon des recherches préliminaires publiées il y a quelques mois dans la revue Nature aging, en mesurant le taux de deux molécules présentes dans le plasma, les chercheurs pourraient prédire une future progression de la maladie d’Alzheimer chez des personnes ayant une déficience cognitive légère. Les tests ont été menés dans un échantillon de 557 personnes âgées de 60 à 70 ans. La présence de niveaux élevés de P-tau181 et de NfL, les deux molécules ciblées par les chercheurs, se sont révélées les prédicteurs les plus précis de la progression de la maladie d'une déficience cognitive légère vers de graves problèmes de mémoire et de réflexion, typiques de la maladie d'Alzheimer. A ce jour, les tests sanguins seraient efficaces à 88 %, selon les chercheurs de l'Université de Lund, en Suède. « Détecter le taux de ces deux biomarqueurs plasmatiques pourraient permettre aux médecins de suivre la progression de la maladie d'Alzheimer chez certaines personnes à risque ». Cela pourrait aussi aider les médecins à distinguer les personnes qui développeront la maladie d'Alzheimer de celles qui ont de simples troubles cognitifs dus au vieillissement. Article rédigé par Georges Simmonds pour RT Flash EMBO | | | |
| Des chercheurs de l'EPFL de Lausanne ont découvert un anticorps monoclonal très puissant ciblant la protéine Spike du SARS-COV-2. Celui-ci neutralise largement toutes les formes du virus, y compris le variant delta. L'anticorps nouvellement découvert a été isolé à partir des lymphocytes d'un patient COVID-19 dans le cadre de l'étude ImmunoCoV réalisée par le Service d'immunologie et d'allergologie du CHUV. L'anticorps est l'un des plus puissants identifiés à ce jour contre le virus SARS-CoV-2. Son analyse structurelle montre qu'il se lie à un endroit qui n’est pas sujet aux mutations sur la protéine virale Spike. Grâce à cette interaction étroite, l'anticorps bloque efficacement la liaison de la protéine Spike aux cellules exprimant les récepteurs ACE2, qui sont la cible du virus pour entrer et infecter les cellules du poumon. Ce faisant, l'anticorps arrête le cycle de réplication virale et conduit à l’élimination du virus par le système immunitaire. Cet effet protecteur a été démontré in vivo, lorsque des hamsters traités par l'anticorps étaient protégés de l’infection après avoir été exposés à une dose hautement infectieuse de virus. Au-delà de l'activité antivirale, les chercheurs ont conçu l'anticorps pour qu'il ait une durée d’action prolongée chez l'homme. Un anticorps classique non-modifié aura des effets protecteurs pendant 3 à 4 semaines maximum. Ici, l’anticorps développé agira durant 4 à 6 mois. Ainsi, il devient une option préventive très intéressante pour protéger les personnes vulnérables non vaccinées ou les personnes vaccinées incapables de produire une réponse immunitaire ; les personnes immunodéprimées, les personnes ayant subi une transplantation d'organe et certains patients atteints de cancer pourront être protégés grâce à une injection de l’anticorps deux à trois fois par an. Sur la base de ces résultats prometteurs, le CHUV et l'EPFL – dans le cadre d’accords de collaboration et de propriété intellectuelle – sont en discussion avec une start up qui aura pour mission d’assurer la production et le développement clinique des anticorps nouvellement découverts. Les essais cliniques doivent démarrer fin 2022. Les recherches ont été menées par les équipes du Service d'immunologie et d'allergologie du CHUV, dirigées par le Professeur Giuseppe Pantaleo et le Docteur Craig Fenwick, et par le Laboratoire de virologie et de génétique de l'EPFL, dirigé par le Professeur Didier Trono et la Docteure Priscilla Turelli. L'équipe de recherche a pu réagir rapidement à la pandémie en découvrant des anticorps neutralisants grâce au soutien depuis de nombreuses années de l'Institut suisse de recherche sur les vaccins. Le laboratoire du Professeur Pantaleo a bénéficié d'un appui supplémentaire grâce au projet CARE (Corona Accelerated R&D in Europe), qui fait partie du partenariat public-privé de l'Initiative pour les médicaments innovants (IMI) visant à financer la recherche et l'innovation dans le domaine de la santé en Europe. Le développement de ce nouvel anticorps neutralisant marque une étape décisive dans la lutte contre la pandémie de COVID-19 et ouvre la voie à une amélioration de la prise en charge des formes sévères de la maladie ainsi qu’à de nouvelles mesures prophylactiques, en particulier pour les personnes dont le système immunitaire est affaibli. Cette découverte n’a cependant pas vocation à remplacer la vaccination, qui reste le moyen le plus efficace de se protéger contre l’infection. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Nous savons depuis une vaste étude de 2005 que notre espèce humaine partage une large partie de son patrimoine génétique avec les primates : le génome du chimpanzé – notre plus proche parent vivant du point de vue l’évolution – n’est différent que de 1,23 % avec le génome humain. Mais jusqu’à présent, les chercheurs ignoraient quelle partie de notre ADN contribuait à la différence qui, malgré toutes nos similitudes, pouvait expliquer pourquoi les humains et les chimpanzés ne se ressemblent pas davantage. Des chercheurs en cellules souches de l’Université de Lund, en Suède, ont trouvé la réponse. Ils ont montré que c’est la partie de notre ADN appelée ADN non codé qui explique pourquoi le cerveau du chimpanzé fonctionne différemment de celui de l’humain. « Au lieu d'étudier des humains et des chimpanzés vivants, nous avons utilisé des cellules souches cultivées en laboratoire. Ces cellules souches ont été reprogrammées à partir de cellules de la peau (…). Nous avons ensuite examiné les cellules souches que nous avions transformées en cellules cérébrales », explique Johan Jakobsson, professeur de neurosciences à l'Université de Lund, qui a dirigé l'étude. À partir de ces cellules souches, les chercheurs ont cultivé spécifiquement des cellules cérébrales d'humains et de chimpanzés et ont comparé les deux types de cellules. Ils ont alors constaté que les humains et les chimpanzés utilisent une partie de leur ADN de manière différente, ce qui semble jouer un rôle considérable dans le développement de nos cerveaux. Comme l’explique le Professeur Jakobsson, cette partie différente de l’ADN est une « variante structurelle de l'ADN que l'on appelait auparavant 'ADN poubelle', une longue chaîne d'ADN répétitive dont on a longtemps considéré qu'elle n'avait aucune fonction ». Contrairement à ce que pensaient les scientifiques jusqu’à présent, les différences entre humains et chimpanzés semblent donc se trouver en dehors des gènes codant pour les protéines, et qui représentent seulement 2 % de l’ADN. « Cela suggère que la base de l'évolution du cerveau humain est constituée de mécanismes génétiques qui sont probablement beaucoup plus complexes qu'on ne le pensait auparavant, car on supposait que la réponse se trouvait dans ces 2 % de l'ADN génétique. Nos résultats indiquent que ce qui a été significatif pour le développement du cerveau est au contraire peut-être caché dans les 98 % négligés, qui semblent être importants. C'est une découverte surprenante ». L’autre innovation de cette étude réside dans la technique des cellules souches utilisée par les chercheurs de l’Université de Lund. Mise au point par le chercheur japonais Shinya Yamanaka et récompensée par le prix Nobel de physiologie ou de médecine 2012, elle a notamment permis de découvrir que des cellules spécialisées peuvent être reprogrammées et développées en tous types de tissus corporels. C’est le cas ici, les chercheurs ayant reprogrammé des cellules souches de la peau en cellules cérébrales. Johan Jakobsson estime qu'à l'avenir, les nouvelles découvertes utilisant cette technologie de pointe pourraient également contribuer à apporter des réponses fondées sur la génétique aux questions relatives aux troubles psychiatriques, comme la schizophrénie, un trouble qui semble &ecir c;tre propre à l'humain. Article rédigé par Georges Simmonds pour RT Flash Science Direct | | | |
| Le CHU de Montpellier vient de réaliser la première greffe artificielle de cornée en Europe sur un patient de 38 ans. Ce premier essai clinique chez l’homme fait l’objet d’une étude sur 45 patients dans le monde : au Canada, aux Pays-Bas, en Israël, à Paris et Montpellier. Après des essais sur des animaux, deux patients ont déjà bénéficié en Israël de ces greffes depuis le début d’année. Les maladies de la cornée représentent la troisième cause de cécité dans le monde. Elles sont d’origine infectieuse, inflammatoire, traumatique ou génétique. Les solutions actuelles pour traiter la cécité cornéenne incluent les greffes issues de donneurs. Des greffes parfois rejetées, et dont la durée de vie est limitée dans le temps, nécessitant souvent une nouvelle greffe au bout d’une dizaine d’années. D’après l’OMS, 20 % des cécités cornéennes ne peuvent pas être traitées par greffe de cornée d’un donneur. Neuf millions de personnes en souffrent à travers le monde. En France, en 2019, dernière année préCovid, 5.436 actes de greffe de cornée ont été réalisés. Originaire de Bordeaux, le premier patient français greffé artificiellement souffrait d’une kératite liée au virus herpès. Une greffe lui avait été refusée à plusieurs reprises. Le CHU de Montpellier a joint la start-up israélienne Corneat vision, à l’origine de cette cornée synthétique. « Le CHU se positionne sur ce genre de développement en termes d’innovation », évoque le professeur Vincent Daien, chef du service ophtalmologie. « Comme c’est un matériel synthétique, il n’y a pas de réaction immunologique possible. Ce procédé engendre beaucoup d’espoirs et d’attentes pour des patients récusés à la greffe ». Article rédigé par Georges Simmonds pour RT Flash CHUM | | | |
| Il y a quelques années, Edoardo Charbon dévoilait la SwissSPAD2, une nouvelle caméra ultra puissante. Sa capacité à capturer et compter la plus petite particule de lumière qui soit, le photon, constituait une première. SwissSPAD2 est aussi capable de reproduire des images en trois dimensions et de mesurer la profondeur de champ grâce au calcul du temps de vol que met un photon pour parcourir le trajet de la caméra jusqu’à l’objet. Depuis, cette caméra n’est pas restée au placard. Le professeur et directeur du laboratoire d’Architectures Quantiques Avancées à l’EPFL l’a envoyée aux États-Unis, dans le laboratoire de l’un de ses collègues du Dartmouth College dans le New Hampshire. Grâce à cette étroite collaboration, les scientifiques ont réussi à photographier, identifier et localiser des tumeurs dans les tissus humains. Pour y parvenir, les chercheurs ont projeté une lumière laser de couleur rouge en même temps que la prise de la photo par la caméra. « Cette couleur permet de pénétrer en profondeur dans les tissus », explique Edoardo Charbon. De plus, ils ont injecté un produit de contraste fluorescent qui s’accroche uniquement aux tissus tumoraux. Lorsque les particules de lumière atteignent la tumeur, elles se comportent différemment que si elles touchent un objet. Et c’est bien cette divergence que les scientifiques ont exploitée. Il s’avère que la lumière met un peu plus de temps pour revenir à son point de départ après avoir percuté le tissu tumoral. « Ce retard relève de moins d’une nanoseconde, mais est suffisamment significatif pour l’utiliser afin de recomposer une image en deux et en trois dimensions », constate le professeur. En effet, cet infime retard permet de reconstruire très précisément la forme de la tumeur, et plus largement son épaisseur, et de la localiser dans le corps. Le retard de la lumière s’explique en partie, car lorsqu’elle est réémise, après avoir touché la tumeur, elle possède un peu moins d’énergie. « Plus la lumière va toucher le tissu en profondeur, plus elle mettra du temps pour revenir, ainsi nous pouvons déterminer l’aspect en 3D », ajoute Edoardo Charbon. Jusqu’à présent, les scientifiques devaient choisir entre la profondeur ou la localisation. Cette nouvelle méthode combine les deux. Aujourd’hui, grâce aux IRM, les chirurgiens sont capables de localiser une tumeur, mais une fois en salle d’opération, la tâche peut se révéler beaucoup plus ardue. Cette technologie vise à aider les médecins, notamment lorsqu’il s’agit de retirer la tumeur. « Avec ce genre d’image, nous pouvons nous assurer que nous avons bien extrait toute la tumeur et qu’il n’en reste pas un bout », indique Claudio Bruschini, scientifique dans le laboratoire d’Architectures Quantiques Avancées. Cette technique pourra aussi être employée en imagerie médicale, en microscopie et en métrologie. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Les biomarqueurs de différents types de douleurs ont été cartographiés par des scientifiques suisses qui espèrent que leur percée permettra de mieux soulager les personnes qui souffrent de douleurs chroniques. Maintenant que ces signatures épigénétiques sont clairement définies, une simple prise de sang permettra d’effectuer une recherche sur ces biomarqueurs, afin de définir de quel type de douleur souffre la personne, et prescrire le traitement approprié, explique le Docteur Bertrand Léger de la Clinique romande de réadaptation. Ainsi, le traitement ne sera plus consacré aux symptômes, mais bien à la racine du mal, ajoute le scientifique. La douleur est une expérience sensorielle et émotionnelle désagréable qui se vit différemment d’une personne à l’autre. Bien la définir est souvent une tâche ardue pour les médecins qui doivent baser leurs diagnostics sur des critères subjectifs comme le degré d’intensité ressenti par les patients. Article rédigé par Georges Simmonds pour RT Flash JOP | | | |
| Une étude, menée par des chercheurs de l'Université de l'Alberta, a mis en lumière le rôle clé de cellules nerveuses spécifiques, les oligodendrocytes. Une molécule, appelée fractalkine, présente dans le cerveau, aide à «réveiller» les cellules cérébrales productrices de myéline, ce qui est prometteur pour le traitement de certains troubles neurodégénératifs, en particulier pour la sclérose en plaques (SEP). La sclérose en plaques est caractérisée par la destruction progressive de la myéline, la substance isolante des nerfs. Sans cette gaine isolante, les impulsions nerveuses qui traversent le corps sont ralenties, ce qui entraîne des problèmes neurologiques. Bien qu'il existe des thérapies qui gèrent les symptômes ou tentent de ralentir la progression des maladies neurodégénératives, des traitements efficaces passeraient par la restauration de la myéline perdue. C’est la piste poursuivie avec la découverte de cette nouvelle molécule. L’auteur principal, Anastassia Voronova, chercheur à l’Université de l'Alberta et professeur de génétique médicale et titulaire de la Chaire de biologie des cellules souches neurales, rappelle que les cellules souches neurales produisent une variété de cellules cérébrales, notamment des oligodendrocytes, un type de cellules du système nerveux central et du système nerveux périphérique. « Au cours du développement, ces cellules souches neurales construisent le cerveau. Dans le cerveau adulte, elles permettent de remplacer les cellules endommagées ou perdues, dont les oligodendrocytes. Cependant, surtout chez l'Homme, le remplacement des oligodendrocytes est très complexe ». L’équipe s’est donné pour objectif d'identifier des molécules capables de « réveiller » ces cellules souches neurales afin de reconstituer ces oligodendrocytes. Ces travaux révèlent que la fractalkine - une molécule dont on limitait jusque-là le rôle au système immunitaire - stimule de manière significative sensiblement la transformation des cellules souches neurales en oligodendrocytes. Les chercheurs testent aujourd’hui sur la souris modèle de SEP, la capacité de la fractalkine à stimuler la remyélinisation via les oligodendrocytes. L’étape suivante consistera à tester cette capacité dans d'autres troubles neurodégénératifs. Article rédigé par Georges Simmonds pour RT Flash SCR | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|