| | | | | | | Edition du 28 Février 2020 |
| |
|
| Edito Est-ce la fin de la loi de Moore ?
La fameuse loi de Moore, qui repose sur des observations concrètes, a été édictée en 1965 par Gordon E. Moore, l'un des cofondateurs de la société Intel. Cette loi trace une courbe d'évolution de la taille et du prix des microprocesseurs. Elle postule qu’à coût égal, le nombre de transistors présents sur une puce double tous les ans. En 1975, cette loi fut révisée par Gordon Moore lui-même et postula que, désormais, ce doublement du nombre de transistors sur un microprocesseur aurait lieu tous les deux ans, au moins jusqu’en 2015. Le premier microprocesseur commercialisé par Intel en 1971 comptait 2 300 transistors. Presque 50 ans plus tard, l’américain Xilinx, leader mondial des circuits logiques programmables, vient de lancer sa nouvelle génération de circuit logique programmable en technologie de 16 nanomètres. Avec 35 milliards de transistors, ce composant, fabriqué chez le fondeur taïwanais de semi-conducteurs TSMC en technologie de 16 nanomètres, est devenu la puce la plus puissante au monde, en dehors des mémoires. Sur le dernier demi-siècle, force est de constater que cette loi a été globalement respectée, puisque, de 1971 à 2020, le nombre de transistors intégrés sur une seule puce a été multiplié par un peu plus de 15 millions… Il y a trois ans, une alliance industrielle rassemblant Samsung Electronics, GlobalFoundries, ASML et IBM a réussi à graver une puce électronique avec une finesse de cinq nanomètres, deux générations en avance sur les circuits intégrés les plus performants de l’époque. Pour parvenir à ce résultat, les chercheurs ont remplacé la technologie FinFET de transistor en 3D par une nouvelle approche reposant sur l’empilage de nanofeuilles (Stacked Nanosheet Gate-all-around transistor). Selon IBM, la puce en question offre un gain de 40 % de performances à consommation égale de courant par rapport à son équivalent en 10 nm, ou 75 % d’économie d’énergie pour des performances équivalentes. Elle peut intégrer 30 milliards de transistors, contre 20 milliards de transistors pour celle de 7 nm. Il y a deux ans, des chercheurs du MIT et de l’Université du Colorado ont présenté, à l’issue de plus de vingt ans de recherche, un transistor 3D d’une taille de seulement 2,5 nm (nanomètre), soit moins de la moitié de la taille des plus petits transistors disponibles. Pour parvenir à franchir cette nouvelle étape décisive dans la miniaturisation des composants, ils ont développé une nouvelle technique de gravure, appelée « Gravure thermique au niveau atomique » (Thermal ALE), qui permet de modifier les semi-conducteurs au niveau atomique. (Voir MIT). Comme le souligne l’étude « Ce travail pourrait avoir un impact considérable sur le monde de l’électronique et permettre de prolonger la validité de la l oi de Moore, en sachant manipuler les matériaux avec une précision atomique. » En décembre dernier, Intel a annoncé qu’il pensait être en mesure de continuer, en utilisant de manière combinée une nouvelle technologie de lithographie en ultraviolet extrême et sa technologie Tri-Gate, à respecter la loi de Moore jusqu’à la fin de cette décennie. Sa nouvelle feuille de route prévoit des transistors de 10 nm en 2019, de 7 nm en 2021, de 3 nm en 2023 et de 1,4 nm en 2029. Le géant américain des semi-conducteurs, numéro un mondial des microprocesseurs pour PC et serveurs, vient d’ailleurs de lancer "Lakefield", un nouveau type de microprocesseurs en 3D qui repose sur l’empilement des puces sur plusieurs centaines de couches, une technologie très délicate à maîtriser en raison des problèmes liés à la dissipation thermique de ces composants. Ces nouveaux processeurs « basse consommation » font 12 millimètres de côté, pour un millimètre d’épaisseur. Les fondeurs de puces, approchant des limites physiques que constitue le nombre d’atomes marquant l’épaisseur de gravure des transistors, tentent donc, comme on le voit avec « Lakefield », d’optimiser la conception des transistors et des circuits plutôt que d'essayer de miniaturiser ces composants de manière brute. Aujourd’hui, il ne reste plus que trois industriels encore capables de graver des composants de 7 nm : Intel, Samsung et TCMC et seuls les deux derniers semblent en mesure de graver des puces en 3 nm, ce qui correspond à une dizaine d’atomes… Pour essayer de reculer l’inexorable échéance qui conduit à la fin de la loi de Moore et gagner quelques années, les grands de l’électronique misent sur le transistor 3D et l’utilisation de nanofils, pour limiter dans des valeurs acceptables l’inévitable fuite des électrons résultant du fameux « effet tunnel, une étrange propriété de la physique quantique qui se manifeste à des échelles atomiques. Mais ces technologies ont aussi leurs limites et leur mise en œuvre est si coûteuse (30 milliards de dollars pour les prochaines usines de fabrication de puces en 3 nm), et si complexe, qu’il n’est pas certain qu’elles soient une solution viable pour poursuivre la miniaturisation des puces électroniques. A moyen terme, d’ici 2025, les géants du numérique vont donc également tenter de concevoir et de fabriquer un nouveau type de puce hybride, associant calcul et mémoire en fines couches reliées par des nanotubes de carbone, ce qui va permettre à la fois de réduire sensiblement, de l’ordre d’un facteur 100, les distances parcourues par les électrons et de diminuer également le dégagement de chaleur par effet joule de ces circuits électroniques. A plus long terme, 10 à 15 ans, ces puces hybrides seront associées à de nouveaux types de puces capables de calcul hautement spécialisés, recourant aux technologies quantiques et neuromorphiques. Ces nouvelles combinaisons électroniques, aux immenses potentialités, pourraient permettre, selon une majorité d’experts, de poursuivre la course à la puissance de calcul et à la miniaturisation pendant au moins 25 ans. Il faut bien comprendre que ces enjeux ne sont pas seulement technologiques et industriels, ils sont aussi éminemment politiques. En effet, pour pouvoir exploiter toutes les ressources des nouveaux logiciels d’IA et traiter des immenses quantités de données à traiter, il est urgent de disposer de calculateurs exaflopiques, capables de réaliser plus d’un milliard de milliards d’opérations par seconde. Et pour construire de tels monstres de puissance, il faut disposer de composants et de puces encore plus performants que ceux dont nous disposons aujourd’hui, à la fois en termes de capacité de calcul, de consommation électrique et de taille. En 2018, les Etats-Unis, grâce à leur nouveau supercalculateur Summit de 150 pétaflops (1 pétaflop vaut un million de milliards d’opérations en virgule flottante par seconde), ont repris la première place mondiale que détenait la Chine depuis 2015. Cette machine équipe l’Oak Ridge National Laboratory du département de l’énergie américain. Et les Etats-Unis sont bien décidé à garder leur avance en la matière, à la fois sur la Chine et sur l’Europe. Au mois d’août dernier, l’état américain a commandé pour 2022 à la firme Cray un troisième ordinateur exaflopique qui sera utilisé à la recherche et la modélisation des futures armes nucléaires. Cette machine de nouvelle génération, dite « Exascale » viendra s’ajouter aux deux autres déjà commandées par les pouvoirs publics américains, « Aurora » qui sera installée à l’Argonne National Laboratory et « Frontier » au Oak Ridge National Laboratory (ORNL), qui seront livrées dès 2021 et seront utilisées pour des recherches extrêmement gourmandes en calculs, dans les domaines de la physique, des matériaux, du climat et de l’énergie. Pendant ce temps, la France et l’Europe, faute de volonté politique et de moyens budgétaires, peinent à rester dans cette course technologique pourtant tout à fait stratégique pour notre avenir. Certes, la France est fière d’avoir mis en service, il y a quelques semaines, son propre superordinateur, baptisé « Jean Zay (en hommage au Ministre qui fut à l’origine de la création du CNRS en 1939). Mais cette machine, même si elle possède une puissance de calcul de 16 pétaflops, et double d’un seul coup notre puissance nationale de calcul, reste dix fois moins puissante que le plus gros calculateur américain ou chinois en service… Quant à l’Europe, elle a deux handicaps majeurs dans ce domaine du calcul massif. Elle est à la fois dépendante de technologies non-européennes et largement distancée par les supercalculateurs américains et chinois : le supercalculateur le plus puissant d’Europe n’arrive qu’en 6ème position, dans le classement mondial. Il est sept moins performant et son efficacité énergétique 2 fois moindre que le n°1 mondial - le supercalculateur d’Oak Ridge dans le Tennessee -. Face à cette situation très préoccupante pour l’avenir de l’Europe, sa place scientifique et économique et sa souveraineté politique, l’Union européenne s’est enfin décidée à réagir en 2018, pour éviter d’être définitivement distancée sur ce marché stratégique des composants électroniques du futur. Elle a annoncé un projet ambitieux. Il s’agit d’un plan d’investissement massif pour s’équiper en supercalculateurs exaflopiques, des machines capables de calculer à la vitesse pharamineuse d’un milliard de milliards d’opérations par seconde. La feuille de route vise des supercalculateurs pré-exascale d’ici la fin de l’année 2021, exascale vers 2022 et 2023, puis post-exascale en 2026 et 2027. Ce programme nommé Horizon 2020 implique 89 projets et 1350 partenaires ; il devrait mobiliser à terme au moins trois milliards d’euros. Parmi ceux-là, le plus emblématique est l’European Processor Initiative (EPI). Son objectif est de fabriquer des processeurs à basse consommation d’énergie et un accélérateur. Il était temps que l’Europe se mobilise, surtout face à la Chine qui affirme ses ambitions dans ce domaine, avec son supercalculateur TaihuLight. Pour y parvenir, l’Union a rassemblé plusieurs sociétés de différents pays au sein d’une entreprise commune baptisée EuroHPC. Celle-ci vient de livrer ses premiers projets architecturaux. Elle rassemble 23 partenaires, dont Atos, le CEA, le Barcelona Supercomputing Center (BSC), l’institut Fraunhofer, STMicroelectronics, ainsi que plusieurs constructeurs automobiles. L’EPI prévoit de construire un microprocesseur européen utilisant l’architecture RISC-V, des composants FPGA et ARM intégrés. On attend un modèle pour un système pré-exascale en 2021, et une version améliorée pour l’exascale en 2023. Il y a quelques jours, une nouvelle étape de ce plan européen Horizon 2020 a été franchie, avec la création de la société SiPearl. Sa mission : donner à l’Europe son indépendance dans les puces clés qui motoriseront les futurs supercalculateurs exaflopiques. Aujourd’hui, Atos, seul constructeur européen, dépend exclusivement de processeurs américains d’Intel, AMD et Nvidia, qui équipent presque tous les supercalculateurs. En revanche, la Chine et le Japon ont bien compris la nécessité de ne pas dépendre de quelques fabricants de puces américains et ils ont su concevoir et produire leurs propres processeurs de calcul intensif. SiPearl espère sortir la première puce d’ici à 2022, de façon qu’elle puisse équiper les deux supercalculateurs exaflopiques prévus dans le plan europ&ea cute;en EuroHPC. On voit donc qu’il n’est plus possible d’espérer rester dans cette course technologique à la puissance de calcul informatique, si on ne maîtrise pas également, en amont, la fabrication de puces spécialisées gravées à des niveaux atomiques, et en aval la conception d’algorithmes très élaborés, capables d’étendre les champs d’application de l’IA. Il faut bien comprendre que l’arrivée de ces calculateurs exaflopiques au cours de cette décennie ne constitue pas un changement de degré, mais bien de nature, en matière informatique et numérique. Avec des machines d’une telle puissance utilisant l’IA, il va devenir possible de concevoir et de tester en quelques semaines des matériaux, des molécules, des médicaments ou des modèles biologiques ou climatiques complexes, qui nécessiteraient encore, aujourd’hui, des années de calcul, avec nos ordinateurs actuels les plus puissants. C’est donc notre société toute entière qui va être bouleversée, dans les dix prochaines années, par l’arrivée de ces ordinateurs de nouvelle génération. C’est pourquoi il est si important que la France et l’Europe redoublent d’efforts pour construire une industrie &e acute;lectronique complète qui soit à la hauteur des défis qui attendent notre siècle. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | Information et Communication | |
| | | La maladie de Huntington est associée à la dégénérescence des neurones d'une partie du cerveau impliqués dans les fonctions motrices, cognitives et comportementales. La médecine a encore beaucoup de mal à comprendre le fonctionnement de cette affection et notamment son avancement. Mais les choses pourraient changer avec les travaux menés par l'Américain IBM et la CHDI Foundation, une fondation biomédicale américaine. Ils ont créé un modèle d'intelligence artificielle (IA) capable de prédire l'avancement de la maladie. L'équipe de scientifiques a utilisé l'imagerie par résonance magnétique (IRM) cérébrale pour former l'IA en utilisant des signaux de la substance blanche cérébrale qui contient les fibres nerveuses. Pendant très longtemps, les études estimaient que cette partie du cerveau était une infrastructure "passive" par opposition à la matière grise. Aujourd'hui, on considère qu'elle est en fait très importante car elle participe à l'apprentissage et est impliquée dans certaines maladies. Le but était d'apprendre au système à évaluer comment les performances cognitives et motrices changent au fil du temps. La seule chose que l'on savait à ce propos était que les premiers symptômes apparaissaient entre 30 et 50 ans mais un gros point d'interrogation subsistait sur l'avancement de la maladie. Selon les chercheurs, une IRM suffirait pour produire des estimations du déclin fonctionnel des activités motrices, cognitives et comportementales. En soi, cette découverte n'a aucune incidence sur le traitement mais elle pourrait aider les patients atteints à se préparer mentalement aux changements qui sont parfois très brutaux. De plus, ce modèle pourrait s'avérer très utile pour aider les scientifiques à sélectionner des candidats pour des essais cliniques en fonction de l'avancement de leur maladie. Ces études pourraient ensuite aider à adopter la meilleure stratégie de soins. Article rédigé par Georges Simmonds pour RT Flash IBM | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | À l'occasion des traditionnels Voeux de l'Institut du Cancer de Montpellier (ICM) le 28 janvier, le directeur de l'établissement, Marc Ychou, a annoncé la mise en place d'un équipement innovant : un robot de préparation des chimiothérapies qualifié d'« unique au monde ». Ce robot constitue un nouveau maillon de la chaîne de sécurisation du médicament pour la chimiothérapie, de la prescription à l'administration (OncoSafety), voulue par l'ICM. Pour mettre au point cette innovation, les chercheurs montpelliérains ont travaillé avec les équipes de l'entreprise italienne Steriline pendant un an et demi. « Nous voulions adresser un point clé : la sécurisation totale des préparations en chimiothérapies », détaille le Docteur Frédéric Pinguet, directeur de l'unité pharmacie de l'ICM. « C'est une première mondiale car c'est un robot sous isolateur, donc entièrement hermétique, ce qui garantit une sécurité maximale pour les patients, mais aussi pour les professionnels ». Le nouvel équipement, qui représente un investissement de 600 000 €, doit être livré dans quelques jours. Il nécessitera ensuite deux mois d'installation et de formation du personnel, avant d'être entièrement opérationnel. Pour l'ICM, il s'agit de réduire les risques d'erreur et ceux liés à la manipulation des produits. De plus, le robot pourra être programmé la veille, et effectuer des préparations dans la nuit, afin de diminuer l'attente des patients pendant la journée. L'ICM réalise actuellement 250 préparations par jour et espère en automatiser une centaine grâce à ce nouveau robot. Article rédigé par Georges Simmonds pour RT Flash La Tribune | | | |
| Les robots sont déjà très présents dans les entrepôts à travers le monde, accomplissant des tâches simples et répétitives autrefois assurées par des êtres humains. Mais le nouveau robot de l’entreprise en démarrage californienne Covariant est différent. Grâce à l’intelligence artificielle, il peut non seulement trier et manipuler des objets en entrepôt, mais il est aussi capable d’apprendre par lui-même pour acquérir de nouvelles compétences. Le robot de Covariant n’est pas un prototype ou un simple concept : il est déjà entièrement opérationnel et utilisé depuis quatre mois dans plusieurs entrepôts américains et européens, dont celui d’Obeta, un grossiste de composants électroniques en Allemagne. En apparence, le robot lui-même n’a rien de spécial : il s’agit d’un gros bras mécanique jaune muni de trois ventouses. Ce qui le rend spécial, ce sont ses six caméras et ses algorithmes d’apprentissage machine qui lui permettent d’identifier et de manipuler des objets qui laisseraient d’autres robots perplexes. Faire le tri d’une diversité d’objets contenus dans une même boîte est une tâche plus complexe qu’elle n’y paraît pour un robot. Ils ne sont pas toujours placés de la même manière, leur forme et leur taille varient, et le reflet de la lumière peut changer et venir tromper le robot. C’est pour cette raison que ce sont des êtres humains qui effectuent habituellement ce travail dans les entrepôts. D’après Covariant, le robot que possède Obeta peut trier, identifier et manipuler plus de 10 000 objets par jour et accomplit ses tâches avec un taux de précision de 99 %. Une fois que les robots seront déployés partout dans le monde, ils partageront entre eux toutes les connaissances qu’ils ont acquises à l’aide d’algorithmes d’apprentissage machine. Les robots de Covariant ont certainement le potentiel de remplacer les êtres humains qui occupent des postes de triage dans les entrepôts. Reste à voir si les entreprises s’empresseront d’adopter cette technologie. Des études laissent toutefois entendre qu’il n’y a tout simplement pas assez de gens pour pourvoir tous les postes en entrepôt. Un rapport publié en juillet par le Chartered Institute of Logistics and Transport, au Royaume-Uni, estime que 54 % des entreprises de logistique s’attendent à faire face à une importante pénurie de main-d'œuvre dans les 5 prochaines années, surtout en raison des faibles salaires, du travail monotone et des faibles taux de chômage. Article rédigé par Georges Simmonds pour RT Flash Radio Canada | | ^ Haut | |
|
| | | L’entreprise nantaise Lhyfe a levé 8 millions d’euros de fonds pour installer en Vendée un premier site industriel de production d’hydrogène vert, qui sera opérationnel au premier semestre 2021. Aujourd’hui, 95 % de l’hydrogène sont fabriqués à partir d’hydrocarbures (pétrole, gaz naturel et charbon). On l’appelle l’hydrogène gris. C’est la solution la moins coûteuse mais ce processus est très émissif de CO2 1 kg d’hydrogène produit = jusqu’à 10 kg de CO2 émis. A contrario, l’hydrogène vert – qui commence à émerger – est produit à partir d’énergies renouvelables et non de CO2 : on utilise l’électricité issue de l’éolien, du solaire ou de l’hydraulique, pour faire passer le courant dans l’eau, qui va décomposer la molécule d’eau H2O en Oxygène (O2) d’un côté, et en Hydrogène (H2) de l’autre. C’est ce qu’on appelle l’électrolyse de l’eau. Si la source d’énergie utilisée pour produire est propre, on obtient ainsi un hydrogène zéro émission, de la production à l’utilisation. Lhyfe est un Pure player de l’hydrogène vert qui a développé un savoir-faire unique d’intégration d’une solution clé en main de production d’hydrogène vert à prix compétitif, tout en accompagnant les acteurs locaux dans le déploiement de cette nouvelle énergie. Cette solution présente 4 particularités : d’abord une solution bénéfique pour l’environnement car notre hydrogène est fabriqué à partir de ressources naturelles et renouvelables. Pour produire cet hydrogène, nous n’émettons aucun CO2. Ce process industriel émet de l’oxygène (pour 1 kg d’hydrogène produit, 8 kg d’oxygène émis). C'est une solution modulaire en connexion directe aux sources d’énergies renouvelables, quelles qu’elles soient : éolien, photovoltaïque, hydraulique, biomasse solide, biogaz, géothermie… La solution proposée par Lhyfe est également évolutive : elle est conçue pour accompagner de façon souple et simple l’évolution des besoins des territoires : il suffit d’ajouter les briques nécessaires pour augmenter la capacité de production. La solution est dimensionnée pour produire localement et se déploie au fur et à mesure pour une réponse adaptée à chaque région. Article rédigé par Georges Simmonds pour RT Flash LMDE | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | C’est une nouvelle thérapie de correction génique pour la dystrophie musculaire de Duchenne que nous décrit cette équipe de l’Université technique de Munich (TUM). La technique d’édition du génome documentée dans la revue Nature Medicine et qui fait ses preuves ici chez un grand modèle animal en coupant la séquence génique défectueuse ouvre un grand espoir dans le traitement de la maladie. Les muscles ont besoin de dystrophine pour se régénérer. Les personnes atteintes de dystrophie musculaire ou myopathie de Duchenne n'ont pas cette protéine musculaire essentielle en raison de mutations du gène responsable de la production de dystrophine. Sans dystrophine, les cellules musculaires se détériorent avec le temps et sont progressivement remplacées par des tissus conjonctifs et graisseux ; la force musculaire s'affaiblit au cours de la maladie. Les premiers symptômes apparaissent généralement vers l'âge de cinq ans. Les enfants atteints commencent à avoir des difficultés motrices sur des mouvements de base. Vers l’âge de 12 ans, les enfants ne peuvent plus marcher, puis ne peuvent plus bouger leurs bras et leurs mains. Atteinte ensuite d’insuffisance respiratoire et cardiaque, la majorité des patients n'atteint pas l'âge de 40 ans. La myopathie de Duchenne affecte principalement les garçons, car les mutations responsables sont localisées dans le gène de la dystrophine sur le chromosome X. Cette équipe allemande a réussi pour la première fois à corriger le gène de la dystrophine muté chez un grand animal. Afin de couper la séquence génétique défectueuse de l'ADN des cellules musculaires et cardiaques chez des modèles porcins vivants, les chercheurs utilisent, en l’adaptant, la technique d’édition du génome Crispr-Cas9 : « Ces ciseaux géniques sont très efficaces et corrigent spécifiquement le gène de la dystrophine », explique l’auteur principal, le Professeur Wolfgang Wurst, généticien à l’Université de Munich. Le gène auparavant « illisible » à cause du défaut génétique redevient « lisible » -ou opérationnel- permettant à nouveau une biosynthèse des protéines dystrophines. La protéine dystrophine plus courte mais restructurée de manière stable permet à nouveau une amélioration de la fonction musculaire. Les animaux traités s’avèrent moins sensibles à l'arythmie cardiaque et survivent plus longtemps. Alors que les cellules musculaires et cardiaques sont des structures cellulaires à longue durée de vie, une fois qu'une cellule a été « corrigée » par la thérapie, elle reste corrigée à vie. Ainsi, la modification du génome d'une cellule myocardique constitue une correction durable. C’est la première fois que la séquence du gène responsable de la protéine dystrophine est corrigée avec succès sur un grand modèle animal : « Nos résultats sont très prometteurs, car pour la première fois, nous obtenons un succès thérapeutique sur un grand modèle animal cliniquement pertinent », explique le Professeur Maggie Walter, neurologue à l'hôpital universitaire de Munich. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Dans le cadre d’une collaboration internationale sur les modifications des ARN, acides nucléiques impliqués dans le transport du message génétique et la synthèse des protéines, une équipe de chercheurs de l’Institut de biologie Paris-Seine (Sorbonne Université/CNRS1) vient de mettre en lumière deux gènes de drosophile dont les produits sont capables de modifier ces ARN. Les résultats de leur étude caractérisent en détail les défauts moléculaires et physiologiques observés lors d’une perte de fonction de ces gènes chez la drosophile. Ils pourraient, dans le futur, permettre d’identifier de nouveaux biomarqueurs déterminants dans le diagnostic de certaines maladies. Modifier les ARN permet de leur conférer de multiples fonctions (stabilité, dégradation, structure, fidélité de la traduction...). Au regard des nombreuses modifications découvertes à ce jour et de leur grande conservation au cours de l’évolution, les possibilités d’action de ces modifications sur les ARN semblent aujourd’hui infinies. Le challenge de l’épitranscriptomique, domaine de recherche en pleine expansion dédié à l’étude des modifications des ARN, est d’identifier précisément ces modifications et les enzymes qui les catalysent afin de comprendre leurs rôles respectifs au niveau physiologique. Dans cette étude, les chercheurs montrent que, contrairement à la levure et à l’homme, la drosophile possède deux gènes dont les produits ont spécialisé leur activité pour méthyler les positions 32 et 34 de certains ARN de transfert (ARNt). De façon extraordinaire, ces modifications à ces positions précises sont conservées dans ces trois organismes. La perte de cette modification chez la drosophile n’est pas létale mais provoque cependant une moins bonne réponse contre les attaques virales, des défauts de régulation de l’expression de certains gènes passant par des mécanismes d’ARN interférence et, comme chez la levure, des défauts de croissance et de longévité. Grâce à cette particularité du système modèle drosophile, qui possède deux enzymes indépendantes, les chercheurs ont désormais la possibilité d'inactiver une seule de ces enzymes à la fois. Cela permet de mieux comprendre l’influence de ces modifications l’une par rapport à l’autre, ce qui est aujourd'hui impossible dans un tout autre système modèle que la drosophile. Autre fait notable : ces travaux de recherche montrent également, pour la première fois, qu’un défaut de méthylation des cibles de ces enzymes provoque leur fragmentation, donnant naissance à une nouvelle classe de petits ARN régulateurs, appelés les fragments d’ARNt (tRF). Cette méthylation semble également responsable de la stabilité relative de certains de ces fragments chez la drosophile. En effet, l’absence de cette modification à l’extrémité de ces petits fragments les fait disparaître. Ces tRF sont de plus en plus utilisés comme biomarqueurs dans certaines pathologies humaines, comme le cancer ou les maladies neurologiques, car ils sont facilement détectables dans le sang, lorsqu’ils y sont présents suffisamment longtemps. Ainsi, mieux comprendre la genèse de ces nouveaux petits ARN que sont les tRFs, en particulier leur stabilité, pourrait, dans le futur, permettre la découverte de nouveaux biomarqueurs spécifiques dus à des mutations dans ces protéines modificatrices d’ARN. C’est ce qu'espère cette équipe avec le gène FTSJ1 humain, l’homologue des protéines étudiées ici chez la drosophile, dont des mutations chez l’homme sont associées à des cas de déficience intellectuelle. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Des chercheurs de l’Université d’Osaka, au Japon, ont annoncé avoir effectué avec succès la toute première transplantation de muscles cardiaques cultivés en laboratoire. Plutôt que de remplacer le cœur entier de leur patient, les scientifiques ont placé des feuilles biodégradables contenant des cellules musculaires cardiaques sur les zones endommagées du cœur. Si la suite de cette procédure se déroule comme prévu, elle pourrait éventuellement éliminer le besoin de transplantations cardiaques complètes pour de nombreux cas. Pour faire croître les cellules du muscle cardiaque en laboratoire, l’équipe a utilisé des cellules souches pluripotentes induites (iPS) du patient. Ce sont des cellules souches que les chercheurs créent sur la base d’un prélèvement de cellules (souvent de la peau ou du sang) et en les reprogrammant dans leur état pluripotent de type embryonnaire. A ce stade, ils peuvent inciter les cellules iSP à devenir “le type de cellule qu’elles souhaitent”. Dans le cas de cette étude japonaise, les chercheurs ont créé des cellules de muscle cardiaque à partir des cellules iSP avant de les placer sur de fines feuilles biodégradables. Le patient qui a reçu la greffe souffre de cardiomyopathie ischémique, une condition dans laquelle le cœur a du mal à pomper le sang, car les muscles n’en reçoivent pas assez. Dans les cas graves, cette condition peut nécessiter une transplantation cardiaque. Et c’est là qu’intervient l’équipe de l’Université d’Osaka. Les chercheurs pensent que les cellules musculaires disposées sur la feuille, sécrétant une protéine, peuvent aident à régénérer les vaisseaux sanguins, améliorant ainsi la fonction cardiaque du patient. Une régénération suffisante pour éviter la transplantation cardiaque. Yoshiki Sawa, professeur à l’unité de chirurgie cardiovasculaire de l’Université d’Osaka, a tenu récemment une conférence de presse à Suita (Osaka) concernant la toute première transplantation de cellules de muscle cardiaque créées à partir de cellules souches pluripotentes induites. Les chercheurs prévoient de surveiller le patient pendant un an, et ils espèrent effectuer la même procédure sur neuf autres personnes souffrant de la même maladie au cours des trois prochaines années. Si les essais cliniques se déroulent comme prévu, la procédure pourrait devenir une alternative indispensable aux transplantations cardiaques. En effet, il est non seulement beaucoup plus facile de se procurer des cellules iPS que de trouver un cœur de donneur approprié, mais le système immunitaire d’un destinataire est également plus susceptible de tolérer des cellules souches plutôt qu’un nouvel organe. Article rédigé par Georges Simmonds pour RT Flash Science Alert | | | |
| En cas de lésions des nerfs, dues à des accidents ou à certaines pathologies, la procédure standard est la greffe nerveuse, mais les résultats sont variables et ne restaurent que 40 et 60 % de la mobilité originale des patients. Mais des chercheurs de l’École de médecine de l’Université de Pittsburgh ont créé un guide nerveux biodégradable — un tube en polymère — rempli de protéines favorisant la croissance, permettant de régénérer de longues sections de nerfs endommagés sans avoir besoin de transplanter des cellules souches ou un nerf donneur. Jusqu’à présent, la technologie a été testée sur des singes et les résultats de ces essais sont encourageants. « Nous sommes les premiers à montrer qu’un guide nerveux sans cellules a pu combler un grand espace de 5 cm entre le moignon nerveux et son muscle cible. Notre guide était comparable et, à certains égards, meilleur qu’une greffe nerveuse » déclare Kacey Marra, professeure de chirurgie plastique à l’Institut McGowan pour la médecine régénérative. Les nerfs périphériques peuvent repousser jusqu’à 0.8 cm d’eux-mêmes, mais si la section endommagée est plus longue que cela, le nerf ne peut pas trouver sa cible. Souvent, le nerf désorienté est noué dans une boule douloureuse appelée neurinome. Le traitement le plus courant pour des segments plus longs de lésions nerveuses consiste à retirer un nerf sensoriel maigre à l’arrière de la jambe — ce qui provoque un engourdissement dans la jambe et d’autres complications, mais a le plus de chances de succès. Le nerf est ensuite sectionné en tiers, regroupés en morceaux puis fixés à l’extrémité du nerf moteur endommagé, généralement dans le bras. Mais généralement, seulement environ 40 à 60 % de la fonction motrice est recouvrée. Le guide nerveux de Marra a permis de restituer environ 80 % du contrôle de la motricité fine dans les pouces de quatre singes, chacun avec un écart de nerf de 5 cm dans l’avant-bras. Le guide est composé du même matériau que les sutures solubles et parsemé d’une protéine favorisant la croissance — la même que celle fixée au cerveau dans un récent essai sur la maladie de Parkinson, qui se libère lentement au cours des mois. L’expérience avait deux contrôles : un tube de polymère vide et une greffe nerveuse. Les singes ayant des jambes relativement courtes, la procédure clinique habituelle consistant à retirer et à couper un nerf de la jambe ne fonctionnerait pas. Ainsi, les scientifiques ont retiré un segment de nerf de 5 cm de l’avant-bras, l’ont retourné et l’ont cousu en place, fixant une barre haute pour que le guide nerveux corresponde. La récupération fonctionnelle était tout aussi bonne avec le guide de Marra qu’avec ce greffon dans le meilleur des cas, et le guide a surpassé le greffon en ce qui concerne la restauration de la conduction nerveuse et la régénération des cellules de Schwann — la couche isolante autour des nerfs qui amplifie les signaux électriques et soutient la régénération. Dans les deux scénarios, il a fallu un an pour que le nerf repousse. Article rédigé par Georges Simmonds pour RT Flash Science Daily | | | |
| La France reste à la pointe de la cancérologie mondiale, comme le montre cette belle avancée de chercheurs toulousains qui, depuis juillet 2019, expérimentent un nouveau traitement très prometteur contre certains cancers agressifs. Il consiste à modifier génétiquement des cellules immunitaires, puis de les réinjecter aux patients atteints de cancers hématologiques graves. C'est la technique qui repose sur les fameux CART-cells, des super-cellules réarmées pour combattre les cellules tumorales. Sur les 9 personnes qui ont participé à l’expérimentation, 6 sont en rémission. Les personnes ayant participé à l’étude étaient atteintes de cancers dits “liquides” : des lymphomes à grandes cellules B et des leucémies aigües lymphoblastiques. Les chercheurs toulousains ont utilisé les lymphocytes T pour les soigner. Ce sont des globules blancs fabriqués par la moelle osseuse et présents dans le sang, la rate et les ganglions lymphatiques. Ils sont impliqués dans la réponse immunitaire des cellules. Dans un premier temps, l’équipe de recherche a prélevé des lymphocytes T chez les patients, puis ces échantillons ont été modifiés génétiquement aux États-Unis pour donner des CART-cells, avant d’être réinjectés. Chaque patient est ensuite suivi, car ce traitement peut provoquer des effets secondaires sévères. Le professeur Pierre Bories, coordinateur pour l’hématologie du réseau Onco-Occitanie-Ouest, explique : « La majorité des patients ont présenté des complications, mais nous avons résolu 100 % des symptômes. La transformation génétique a permis de rendre les cellules plus efficaces dans la détection et la destruction des cellules tumorales. À terme, la modification génétique des cellules devrait être réalisée en Europe, ou mêm e à Paris. Cela permettrait de réduire les coûts de ce traitement, qui s’élèvent aujourd'hui à 400 000 euros par patient ». L'Institut universitaire du cancer de Toulouse espère traiter chaque année 50 patients avec ce nouveau processus thérapeutique, puis l’utiliser pour d’autres cancers et pathologies. Aux États-Unis, où le traitement existe déjà, les études affirment qu’il serait efficace dans 80 % des cas. Le taux de rechute à 3 ans ne dépasserait pas 60 %. Article rédigé par Georges Simmonds pour RT Flash IUCT | | | |
| Une étude réalisée sur 552 enfants de 2 à 5 ans à Singapour montre que l'exposition prolongée aux écrans affaiblit la mobilité des plus jeunes, confirmant ainsi les recommandations de l'Organisation mondiale de la Santé. Qu’il s’agisse de tablettes ou de smartphones, les tout-petits sont exposés de plus en plus tôt aux écrans. Ces recherches montrent que ceux qui ont passé le plus de temps devant sont moins mobiles que les autres. L’équipe a suivi ces 552 enfants pendant trois ans, en demandant à leurs parents de noter les heures quotidiennes passées devant l’écran. À la fin des trois ans, ils les ont équipé d’un accéléromètre, c’est-à-dire un appareil qui capte et enregistre les accélérations d’un objet. L'objectif était de "mesurer l’effet des écrans sur leur activité future, puis d’identifier précisément à quels types d’activités s’était substitué le temps passé devant", les écrans, précise Jonathan Bernard, épidémiologiste français de l’Inserm, co-auteur de l’étude. Leurs travaux permettent d’abord d’établir une moyenne d’exposition quotidienne aux écrans de 2,5 heures. Sur l’ensemble des participants, seuls 19 % sont devant les écrans moins d’une heure par jour, tandis que près d’un tiers (29 %) regardent un écran plus de trois heures par jour. Résultat : un enfant de 5 ans qui est exposé au moins 3 heures par jour aux écrans voit son activité physique abaissée de 40 minutes par jour par rapport à celui de deux ans qui passe moins d’une heure devant. Ces données viennent confirmer les dernières recommandations de l’Organisation mondiale de la Santé, qui rappelle que “Pour grandir en bonne santé, l’enfant de moins de cinq ans doit passer moins de temps assis devant un écran ou attaché à son siège ou dans sa poussette”. Il est ainsi conseillé de ne pas laisser un enfant de moins deux ans devant un écran et de ne le laisser pas plus d’une heure lorsqu’il atteint les deux ans. Des mesures qui doivent s’accompagner d’une activité physique (de modérée à forte) d’au moins 180 minutes, pour éviter tout risque d’obésité. Article rédigé par Georges Simmonds pour RT Flash The Lancet | | | |
| On savait déjà que la pollution de l'air était néfaste pour le cœur et les artères, ainsi que pour la santé des poumons. Mais une nouvelle étude menée par l’Université de la Colombie-Britannique, au Canada, vient de montrer que le fait d'habiter à proximité d’un axe routier important ou d’une autoroute aurait une incidence non négligeable sur le développement d’une démence et de la maladie de Parkinson. « Pour la première fois, nous avons confirmé un lien entre la pollution de l'air et la proximité du trafic avec un risque plus élevé de démence et de Parkinson au niveau de la population », explique ainsi Weiran Yuchi, auteur principal de l'étude. Pour parvenir à cette conclusion, les chercheurs ont analysé les données concernant 678 000 adultes âgés de 45 à 84 ans qui ont vécu dans la région métropolitaine de Vancouver de 1994 à 1998 et pendant une période de suivi de 1999 à 2003. Pour estimer leur risque de développer une maladie neurologique, ils ont pris en compte l'exposition individuelle à la proximité de la route, à la pollution de l'air, au bruit et à la verdure au domicile de chaque personne en utilisant les données du code postal. Au cours de la période de suivi, les chercheurs ont identifié 13 170 cas de démence non-Alzheimer, 4 201 cas de maladie de Parkinson, 1 277 cas de maladie d'Alzheimer et 658 cas de sclérose en plaques. Ils ont ainsi découvert que vivre à moins de 50 mètres d'une route principale ou à moins de 150 mètres d'une autoroute augmentait de 14 % le risque de développer une démence et de 7 % la maladie de Parkinson. En raison du nombre relativement faible de cas d'Alzheimer et de SEP dans la région métropolitaine de Vancouver, les chercheurs n'ont en revanche pas identifié d'associations entre la pollution de l'air et l'augmentation du risque de ces deux troubles. Toutefois, ils analysent actuellement des données à l'échelle du Canada et espèrent que l'ensemble de données plus important fournira davantage d'informations sur les effets de la pollution atmosphérique sur la maladie d'Alzheimer et la sclérose en plaques. Les chercheurs se sont cependant rendu compte que la proximité d’espaces verts pouvait diminuer les effets de la pollution de l’air sur les troubles neurologiques. « La bonne nouvelle est que les espaces verts semblent avoir certains effets protecteurs en réduisant le risque de développer un ou plusieurs de ces troubles », explique Weiran Yuchi. Cela est dû à plusieurs facteurs. « Les personnes qui sont exposées à un niveau plus élevé d'espaces verts sont plus susceptibles d'être physiquement actives et peuvent également avoir plus d'interactions sociales », avance Michael Brauer, co-auteur des travaux. « Il peut même y avoir des avantages à ne considérer que les aspects visuels de la végétation ». Selon les auteurs de l’étude, il est nécessaire de fournir des efforts d’urbanisme supplémentaire pour non seulement réduire la circulation automobile, mais aussi accroître l’accessibilité aux espaces verts en développant des parcs et des quartiers résidentiels. Article rédigé par Georges Simmonds pour RT Flash EH | | | |
| Une vaste étude américaine réalisée par l'équipe du Docteur Zhilei Shan, de l'École de santé publique de Harvard à Boston, a analysé les données de plus de 37 233 adultes américains, âgés en moyenne de 49,7 ans. Les données provenaient de la National Health and Nutrition Examination Survey (NHANES), de 1999 à 2014. Au cours de cette période, les chercheurs ont noté 4 866 décès, dont 849 liées aux maladies cardiaques et 1 068 à des cancers. En utilisant les rapports de la NHAES sur l’alimentation des participants, ils ont remarqué qu’un régime alimentaire sain à faible teneur en glucides (quantités inférieures de glucides de faible qualité et quantités supérieures de protéines végétales et de graisses insaturées) et un régime alimentaire sain à faible teneur en graisses (quantités inférieures de graisses saturées et quantités supérieures de glucides de haute qualité et de protéines végétales) étaient associés à une mortalité totale plus faible. Dans le détail, les participants « ayant obtenu un score global plus élevé (low carb dirt score), indiquant une alimentation de moins bonne qualité, étaient plus susceptibles d'être plus âgés et blancs non hispaniques, d'avoir un IMC, un niveau d'éducation, un niveau de revenu et un apport en cholestérol plus élevés, et d'avoir un apport énergétique total plus faible », observent les scientifiques. « Les graisses fournissent plus de deux fois plus d'énergie que les glucides et les protéines en poids. Un régime riche en graisses saturées est très appétissant et peut conduire à une surconsommation et à l'obésité », expliquent-ils. Et de poursuivre : « Les glucides de faible qualité, tels que les céréales raffinées et les sucres ajoutés, ont une valeur nutritionnelle limitée, et leur charge glycémique élevée pourrait être associée à un taux de glucose et d'insuline postprandial élevé, à une inflammation, à une résistance à l'insuline et à une dyslipidémie ». En revanche, les personnes ayant obtenu un score plus élevé pour un régime pauvre en graisses avaient le plus souvent tendance à ne pas fumer, à être plus minces et à avoir moins de cholestérol. En conclusion, « la consommation de glucides provenant de céréales raffinées et de sucres ajoutés a été associée de manière négative à des résultats pour la santé, alors que la consommation de glucides provenant de céréales complètes, de légumes non amylacés et de fruits entiers semble être bénéfique », déclarent les chercheurs. Article rédigé par Georges Simmonds pour RT Flash JAMA | | | |
| Une étude réalisée par des chercheurs de l’Université du Kentucky a montré que les antibiotiques pourraient être un traitement prometteur contre les démences frontotemporales. Ces chercheurs ont montré qu’une classe d'antibiotiques appelés aminosides ou aminoglycosides pourrait être efficace à relancer la production d’une protéine, la progranuline, essentielle pour les cellules cérébrales. Car les cellules cérébrales des patients atteints de démence frontotemporale portent une mutation qui empêche la production de progranuline. L'équipe de biochimistes moléculaires montre qu’en ajoutant une petite molécule d'antibiotique aux cellules, elle parvient à « tromper » la machinerie cellulaire qui recommence à fabriquer la protéine. La démence frontotemporale est le type le plus courant de démence à début précoce. Cette forme de démence apparaît en effet dès les âges de 40 à 65 ans, affectant les lobes frontaux et temporaux du cerveau, ce qui entraîne des changements de comportement, des difficultés à parler et à écrire et une détérioration rapide de la mémoire. Cette forme de démence est hautement héréditaire et les mutations de la progranuline représentent 5 à 26 % de l’incidence globale de la maladie, selon les groupes de population. La progranuline est impliquée dans l'endocytose, la sécrétion et les processus lysosomaux. Actuellement, il n’existe pas de traitement efficace de la démence frontotemporale. Les aminosides, la classe d'antibiotiques « pressentie » par ces chercheurs, permet ici in vitro aux cellules neuronales porteuses de la mutation, de produire à nouveau la protéine progranuline en « oubliant » la mutation. Les auteurs expliquent que l’antibiotique parvient à « duper » la machinerie cellulaire. 2 antibiotiques aminosides spécifiques – la gentamicine et la généticine (G418) – s’avèrent particulièrement efficaces à bloquer la mutation et à permettre la production de progranuline fonctionnelle. L’ajout de ces molécules de gentamicine ou de généticine aux cellules affectées, permet de faire remonter le taux de protéine progranuline jusqu'à environ 50 à 60 % de ses niveaux normaux. Des résultats d’autant plus prometteurs qu’il n'existe aucun traitement efficace pour aucun type de démence. La prochaine étape va donc consister à étudier les effets des antibiotiques sur des souris modèles de démence frontotemporale. L’équipe souhaite également développer de nouveaux composés à partir des 2 antibiotiques, pour limiter au mieux leurs effets indésirables. Article rédigé par Georges Simmonds pour RT Flash HMG | | | |
| Contre les virus, des traitements antiviraux existent, mais leur efficacité reste limitée et ils ne peuvent que rarement stopper complètement la propagation d’une infection. Des chercheurs de l’Université de Genève (UNIGE), de l’EPFL et de l’Université de Manchester, sont aujourd’hui en passe de renforcer considérablement l’arsenal thérapeutique de lutte contre les virus : en modifiant des molécules de sucre, ils sont parvenus à détruire, par simple contact, de nombreux virus, et notamment ceux responsables d’infections respiratoires et d’infections herpétiques. Ces résultats, à découvrir dans la revue Science Advances, pourraient rapidement permettre la mise au point de médicaments antiviraux à large spectre, capables de détruire de nombreux virus, dont probablement le coronavirus qui sévit actuellement en Chine et d’autres parties du Monde. Les substances dites «virucides», telles que l’eau de Javel, sont capables de détruire les virus par simple contact. Toutefois, elles sont extrêmement toxiques pour l’être humain comme pour son environnement et ne peuvent être absorbées ou appliquées sur le corps humain sans causer de graves dommages. Du point de vue médical, les médicaments antiviraux actuels agissent pour la plupart en inhibant la croissance des virus, sans parvenir à les détruire. De plus, ils ne sont pas toujours fiables : les virus peuvent en effet muter et devenir résistants à ces traitements. « Pour contourner ces deux obstacles et pouvoir lutter efficacement contre les infections virales, nous avons imaginé un angle d’attaque entièrement différent » souligne Caroline Tapparel Vu, professeure au Département de microbiologie et médecine moléculaire de la Faculté de médecine de l’UNIGE, qui a dirigé ces travaux avec Francesco Stellacci, professeur à la Faculté des Sciences et Techniques de l’ingénieur de l’EPFL. Les chercheurs avaient précédemment réalisé un antiviral à base d’or. En appliquant le même concept, ils ont cette fois-ci réussi à mettre au point un antiviral en utilisant des dérivés naturels du glucose, appelés cyclodextrines. « Les avantages des cyclodextrines sont nombreux : encore plus biocompatibles que l’or, et plus faciles d’utilisation, elles ne déclenchent pas de mécanisme de résistance et ne sont pas toxiques », indique Samuel Jones, chercheur à l’Université de Manchester et membre de l’Institut Henry Royce pour les matériaux avancés. « De plus, les cyclodextrines sont déjà couramment utilisées, notamment dans l’industrie agroalimentaire, ce qui faciliterait la mise sur le marché de traitements pharmaceutiques les utilisant », ajoute Valeria Cagno, chercheuse à la Faculté de médecine de l’UNIGE et co-première auteure de ces travaux. Comment cela fonctionne-t-il ? Les molécules de sucre modifiées attirent les virus avant de les inactiver irréversiblement. En perturbant l’enveloppe externe d’un virus, elles parviennent à détruire les particules infectieuses par simple contact, au lieu d’uniquement bloquer la croissance virale. Et ce mécanisme semble se vérifier quel que soit le virus concerné. Un brevet a d’ailleurs été déposé et une spin-off créée afin d’étudier le développement pharmaceutique qui pourrait être fait avec leur découverte. Très stables, les cyclodextrines pourraient ainsi être formulées en crème, en gel ou en vaporisateur nasal, par exemple. S’il existe des médicaments contre certains virus, comme le VIH ou l’hépatite C, ceux-ci restent spécifiques. Le développement de nouveaux antiviraux est donc essentiel, surtout pour lutter contre les virus les plus dévastateurs ou les virus émergents contre lesquels il n’existe à l’heure actuelle aucun traitement. Ainsi, des antiviraux à large spectre permettraient de contrôler plus rapidement et plus efficacement les flambées épidémiques d’origine virale. « Si nous réussissons ce passage à des applications concrètes, nos travaux pourraient avoir un impact global. Notre composé pourrait également être efficace contre de nouveaux virus émergents tels que le récent coronavirus qui suscite actuellement des inquiétudes en Chine », concluent les auteurs. Article rédigé par Georges Simmonds pour RT Flash Unige | | | |
| Des chercheurs du laboratoire Neuroscience Paris Seine, en coopération avec une équipe de chimie pharmaceutique à l’Université Paris Descartes, ont développé un candidat-médicament pour traiter de manière plus efficace la dépression. Fréquente et invalidante, la dépression concerne 300 millions de personnes dans le monde et son impact clinique, social et économique est très important. Cette maladie reste encore mal soignée et les traitements actuels, notamment des inhibiteurs de recapture de la sérotonine (un des principaux transmetteurs du système nerveux central) ont des délais d’action longs et une efficacité variable. Environ 30 % des patients ne répondent pas de manière satisfaisante aux traitements et souffrent de dépression dite "résistante". Mettre au point de nouveaux médicaments plus performants et qui agissent avec des modes d’action différents, constitue donc aujourd’hui un enjeu médical majeur. Des études récentes ont montré qu’une famille peu connue de protéines présentes dans le cerveau, les transporteurs de cations organiques (OCT), jouait un rôle dans la régulation de l’humeur. « Nous avons donc fait l’hypothèse que ces transporteurs pouvaient être des cibles thérapeutiques », explique Sophie Gautron, « et en collaboration avec Nicolas Pietranscosta de l’Université Paris Descartes, nous avons utilisé une approche de modélisation 3D in silico, pour développer un nouveau ligand (une molécule qui se lie spécifiquement à une autre) ». Le composé synthétisé, une prodrogue, a été testé avec succès sur un modèle animal de dépression chronique, dans lequel les souris présentent des anomalies similaires aux symptômes des patients dépressifs : anxiété, troubles cognitifs, aversion sociale ou encore anhédonie, c’est-à-dire la perte du plaisir dans les activités quotidiennes. Après administration de la prodrogue, les souris ont montré une nette diminution de tous les symptômes, aussi efficacement qu’avec l’antidépresseur de référence, la fluoxétine (Prozac®), et même un effet accéléré à 11 jours sur l’anhédonie. « Nous avons observé que cette molécule agit sur l’activité des neurones dopaminergiques, importante pour les processus de récompense et donc pour l’anhédonie », décrit Sophie Gautron. Ces premiers résultats apportent la preuve que les transporteurs de cations organiques constituent des cibles thérapeutiques pertinentes pour les troubles de l’humeur. Les équipes de Sophie Gautron et de Nicolas Pietranscosta vont donc poursuivre leurs investigations afin d’optimiser la prodrogue synthétisée dans des études précliniques puis envisager des études cliniques sur l’Homme. Article rédigé par Georges Simmonds pour RT Flash Inserm | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|