| | Edito Vers une nouvelle approche conceptuelle de la vie
En 1944, Erwin Schrödinger, l’un des pères de la mécanique quantique et découvreur de la fonction d’onde en 1927, publia un petit essai, intitulé « Qu’est-ce que la vie », qui devait avoir un retentissement et une postérité considérables, et influença des générations de scientifiques et de biologistes, parmi lesquels le fameux trio composé de Jacques Monod, André Lwoff et François Jacob, qui fut récompensé du Nobel de médecine en 1965, pour leur découverte, en 1961, du rôle de l’ARN qu’ils baptisèrent "messager", dans le mécanisme fondamental de régulation de l’expression des gènes. Cet esprit universel voulait comprendre pourquoi la biologie n’est pas réductible à la physique et semble violer plusieurs de ses principes fondamentaux ? Il montra dans son essai visionnaire, presque vingt ans avant l’apparition de la biologie moléculaire, qu’un ensemble d’atomes ne permettait pas de répondre à cette question, et qu’il était nécessaire d’envisager un ordre supérieur d’organisation, celui des molécules. De manière tout à fait remarquable, Schrödinger, 9 ans avant la découverte de la structure de l’ADN par Watson et Crick, eut l’intuition qu’il devait exister un code moléculaire, capable de stocker dans un minuscule support biologique l’information dont les organismes avaient besoin pour se développer et fonctionner de manière à produire de la néguentropie (l’inverse de l& #8217;entropie), pour contrebalancer la tendance naturelle des structures vivantes au désordre et à la destruction. En observant l’ordre minéral, et notamment les cristaux, Schrödinger constata qu’un cristal est caractérisé par un arrangement linéaire de motifs de base, qui se répètent de manière plus ou moins périodique. Il remarqua par ailleurs que, dans les organismes vivants, la duplication de la matière semble constituer un principe de base, notamment en ce qui concerne les chromosomes, support de l’hérédité. Il faut donc parvenir, d’une part, à caractériser les processus de duplication, et, d’autre part, à imaginer un mécanisme de mémorisation des propriétés des cellules. A partir de ces observations, Schrödinger acquit la conviction qu’il devait exister un "code moléculaire" portant l’information nécessaire au fonctionnement de tous les organismes vivants. Poussant plus loin sa réflexion, il eut l’intuition géniale qu’un cristal dit "apériodique", organisé ni selon une stricte répétition, ni selon un pur hasard, était le bon modèle pour caractériser ce mystérieux code de la vie. Et c’est justement ce que révélera quelques années plus tard la chimiste anglaise Rosalyd Franklin, avec ses clichés montrant la diffraction des rayons X par des fibres d’ADN : on peut y voir des taches de diffraction très nettes, qui montrent l’existence d’une périodicité d’objets régulièrement espacés de 3,4 angströms. Mais à une plus courte dis tance, on ne trouve trace d’aucune tache indiquant que la période est conservée pour des objets plus petits, en l'occurrence des atomes. En 1953, Watson et Crick découvriront, comme on le sait, en s'appuyant sur le travail méconnu de Rosalind Franklin, la structure de l’ADN en "double hélice" qui explique la figure de diffraction et confirme pleinement l’intuition de Schrödinger sur la nature profonde du mécanisme de transmission de l’hérédité. Schrödinger, par la seule connaissance profonde des lois mathématiques, physiques et chimiques, avait réussi à construire une hypothèse qui s’avéra juste : l’ADN possède à la fois un ordre régulier et géométrique, caractérisé par l’arrangement des molécules de sucres désoxyribose, et un ordre non géométrique, plus profond, caractérisé par l’enchaînement des quatre nucléotides (molécules organiques), qui forment l’ADN : A-C (Adénine-thymine) et G-T (Guanine-cytosine). Marchant sur les pas de Schrödinger, le grand scientifique et philosophe Henri Atlan a mené depuis plus d’un demi-siècle, au travers de nombreux essais, une réflexion et un travail théorique considérables et passionnants sur le rôle du hasard, du désordre et de l'organisation dans la construction, le fonctionnement et l’évolution du vivant. Atlan a repris, prolongé et enrichi la découverte fondamentale d'Ilya Prigogine (Nobel de Chimie 1977) concernant les structures dissipatives, qui sont des systèmes ouverts capables de transformer de l’énergie perdue et de la réaffecter pour créer de l’ordre et de la complexité. Il a par ailleurs émis l’hypothèse que tout système biologique traite de l'information selon l‘approche définie par la théorie de l'information de Shannon (1948), qui ne s'occupe pas du sens du message, mais seulement de la quantité de signes transmis par un canal. Atlan reprend l’idée que les systèmes vivants complexes sont toujours caractérisés par un certain degré d'instabilité, et une redondance des signaux permettant de corriger les "bruits" qui ne cessent de perturber la bonne transmission du flux d’informations. Pour expliquer cette réalité, Atlan écrit que « les processus d'auto-organisation qui apparaissent a posteriori comme la réalisation d'un projet, sont en réalité les effets de facteurs aléatoires de l'environnement que n'importe quel système peut utiliser de cette façon à partir d'un certain degré de complexité structurale et fonctionnelle ». Mais ce grand scientifique fait néanmoins une distinction fondamentale entre l'auto-organisation, qui produit des structures nouvelles, et l'autorégulation, qui est orientée vers la conservation d es structures biologiques. Mais depuis quelques années, l’arrivée de nouveaux outils incroyablement puissants d’observation et d’analyse (comme le télescope James Webb, en 2022, le Rover martien Perseverance, en 2021 ou le Télescope cosmologique d’Atacama, en 2007) et le lancement de missions spatiales d’exploration vers Mars et les lunes glacées de Jupiter (comme la Mission Juice) sont venus bouleverser les fondements de l’exobiologie. Il s’agit à présent pour les scientifiques de repenser et d’élargir leur conception du vivant car, comme nous l’ont montré les récentes découvertes d’organismes surprenants vivant sur Terre dans des environnements extrêmes et peu propices à la vie. Il est probable, si la vie extraterrestre existe, qu’elle prenne, même en restant basée sur la chimie du carbone, des formes très différentes de cell es que nous connaissons sur Terre. Toute la difficulté réside dans le fait qu’il est très difficile de définir de manière exhaustive des critères qui garantissent une séparation stricte entre ce qui est vivant et ce qui ne l’est pas ? Le meilleur exemple en est celui des virus, considérés comme vivants par certains biologistes, mais comme non-vivants, par d’autres, dans la mesure où ils ne peuvent ni se reproduire, ni se développer sans infecter une cellule hôte. C’est dans ce nouveau contexte d’observation et d’exploration qu’en 2020, les astrobiologistes Stuart Bartlett, de Caltech (l’institut de technologie de Californie), et Michael Wong, de l’Université de Washington, à Seattle, ont proposé une nouvelle et remarquable définition de « la vie telle qu’on ne la connaît pas ». Pour construire leur nouvelle distinction entre la vie telle qu’on la connaît (life) et cette définition, bien plus large, ils ont choisi le terme "lyfe". La définition du vivant, de Stuart Bartlett et Michael Wong repose sur quatre critères cumulatifs. Pour entrer dans cette conception élargie de la vie, un organisme doit posséder une structure dissipative, une propriété autocatalytique, être capable d’homéostasie et enfin disposer d’un pouvoir d’apprentissage (Voir NIH ). Le deuxième principe de la thermodynamique, ou principe de Carnot-Clausius, postule qu’un système isolé évolue spontanément vers une augmentation de son entropie (désordre), jusqu’à atteindre un état final d’équilibre. Pourtant la vie semble suivre une trajectoire opposée en produisant, tant sur le plan de l’individu (ontogénétique) que de l’espèce (phylogénétique) des structures toujours plus riches et complexes. Cela ne signifie pas pour autant que les organismes vivants échappent aux lois de la thermodynamique ! Ils sont capables de maintenir une structure complexe, car ils ne sont tout simplement pas des systèmes isolés. Dès lors, ils se placent loin de l’équilibre thermodynamique en exploitant l’énergie disponible dans le milieu. Ils conservent localement une entropie faible en dissipant leur énergie utilisée dans l'environnement, sous forme de chaleur et de lumière, et en accroissant d’autant l’entropie de ce dernier. C'est ce processus qui a été baptisé "structure dissipative". Bien que ces structures dissipatives soient un concept appartenant initialement à la thermodynamique, elles sont également présentes dans le domaine physique. Si un fluide est chauffé par le bas et refroidi par le haut, on verra apparaître, dans certaines conditions locales, des mouvements auto-organisés de convection dans le liquide. On peut facilement observer ce phénomène quand on réchauffe une casserole de soupe, mais il est également à l'œuvre dans la dynamique des mouvements de l’air dans l’atmosphère. Dans ces différents cas de figure, le fluide aura tendance à s’auto-organiser de façon structurée dans un état éloigné de l’équilibre, en exploitant la différence de température entre le haut et le bas. Les cellules vivantes représentent les formes les plus complexes de structure s dissipatives, car elles sont capables de se maintenir loin de l’équilibre thermodynamique en utilisant de nombreuses stratégies d'utilisation et de transformation des énergies physiques, chimiques ou thermiques. C'est notamment le cas de la photosynthèse dans le règne végétal, qui transforme l'énergie lumineuse en énergie chimique, à l'aide de CO2 et d'eau. Le second critère exigé par la définition de la lyfe, c’est l’autocatalyse, c’est-à-dire la capacité à s’accroître, ou à se régénérer en se reproduisant, comme sont capables de le faire nos cellules qui ne cessent, selon des programmes précis, de se diviser et se renouveler. Il existe toutefois dans la nature de nombreux processus chimiques ou physiques qui sont autocatalytiques, sans pour autant caractériser des êtres vivants. Bartlett et Wong proposent donc un troisième critère, l’homéostasie. En biologie, cette propriété, définie par le physiologiste américain Walter Cannon, désigne la capacité d’autorégulation d’un organisme, qui va ainsi être capable de maintenir ses constantes vitales internes autour de valeurs compatibles avec sa survie. Dans la plupart des systèmes vivants, ces variables sont la température, l’acidité ou la concentration de certaines molécules chimiques. Lorsque ces variables viennent à être perturbées par l’environnement, les organismes vivants ont une puissante capacité de maintenir ou de rétablir ces constantes pour assurer leur pérennité. Enfin, le quatrième critère retenu par Bartlett et Wong pour définir le vivant est la capacité d’apprentissage entendue au sens large, c'est-à-dire débordant le cadre de l‘évolution darwinienne. On parle ici de la capacité pour une structure de capter, stocker, transcrire différents types d’informations provenant de son environnement, et d’en faire une utilisation heuristique, c’est-à-dire de nature à trouver des solutions nouvelles pour survivre et améliorer l’efficacité de son fonctionnement face aux menaces et modifications de son milieu. Selon la théorie de Stuart Bartlett et de David Louapre, il suffit, quel que soit l’environnement et les formes de vie considérées, de constater la présence simultanée de ces quatre critères, pour pouvoir affirmer que l’on a bien affaire à un être vivant. L’exploration du cosmos et de ses nombreux mondes, à commencer par notre système solaire, permettra de vérifier la pertinence de cette fascinante hypothèse lyfe, qui suscite des débats passionnés au sein de la communauté scientifique. Il n’est pas sûr cependant que la vie, dans sa prodigieuse diversité créatrice, se laisse si facilement circonscrire dans un cadre théorique, aussi séduisant et large soit-il… René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat e-mail : [email protected] | |
| | | | Comment la vie est-elle apparue sur Terre ? Les scientifiques ne peuvent pas affirmer avec certitude le processus qui s’est produit il y a 3,9 milliards d’années, certains avancent l’hypothèse d’une apparition spontanée à partir d’éléments non vivants, d’autres que les ingrédients de base étaient présents dès l’origine et qu’ils se sont peu à peu complexifiés par sélection naturelle comme le soutient Charles Darwin. Plus récemment, les regards se sont tournés vers les astéroïdes qui auraient pu apporter les éléments constitutifs de la vie sur notre planète. Justement, une preuve directe de cette théorie a été apportée par des scientifiques de l’Université d’Hokkaido au Japon qui étudient les échantillons récupérés par la sonde Hayabusa 2 sur l’astéroïde Ryugu. Ils ont utilisé une toute nouvelle méthode de détection pour faire parler cette poussière qui navigue dans l’espace depuis l’origine de la Terre et ont découvert de l’uracile, l’une des bases nucléiques et un composant de l’ADN et de l’ARN. L’astrochimiste Yasuhiro Oba apporte des précisions à ce sujet, « nous avons trouvé de l’uracile dans les échantillons en petites quantités, de l’ordre de 6 à 32 parties par milliard (ppb), tandis que la vitamine B3 était plus abondante, de l’ordre de 49 à 99 ppb […] D’autres molécules biologiques ont également été trouvées dans l’échantillon, y compris une sélection d’acides aminés, d’amines et d’acides carboxyliques, qui se trouvent respectivement dans les protéines et le métabolisme ». La NASA ramène également des échantillons provenant d’un autre objet spatial, Bennu, pour les étudier et peut-être renforcer cette théorie. Le retour de la mission est programmé en septembre 2023, nous aurons donc sans doute des détails dans le courant de l'année prochaine. En tout cas, Yasuhiro Oba précise que cette découverte d’uracile « renforce les théories actuelles concernant la source des nucléobases de la Terre primitive ». Article rédigé par Georges Simmonds pour RT Flash Science Alert | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Selon des chercheurs de l’UGent, la forêt tropicale du bassin du Congo est devenue le “premier poumon” de la planète. Cela signifie que cette forêt est le site de stockage de dioxyde de carbone (CO2) le plus important au monde. Précédemment, c’est dans la forêt amazonienne, que se trouvait le “premier poumon”. La photosynthèse est le processus qui permet aux végétaux, grâce à la lumière solaire, de transformer le CO2 en oxygène et en énergie. Pour étudier quelle quantité de CO2 (un gaz à effet de serre) la forêt peut absorber, ces scientifiques ont installé, il y a quelques années, à Yangambi dans le bassin du fleuve Congo une “tour climatique” (ou "tour à flux") de 57 mètres de haut, qui dépasse la canopée d’une vingtaine de mètres. Au sommet de cette tour ont été placés des instruments qui mesurent un certain nombre d’indicateurs dont le taux de CO2 et l’humidité dans l’air ; cela permet de mesurer l’échange net de dioxyde de carbone entre la forêt et l’atmosphère, sur une surface d’environ 30 hectares, explique à la VRT le professeur Pascal Boeckx de l’UGent. En effet, si les arbres absorbent du CO2, ils en produisent aussi par le tronc et le sol. Et c’est le résultat net de ces échanges qu’il faut obtenir. « Nos calculs ne sont pas encore définitifs, mais nous sommes actuellement à environ 5 tonnes de CO2 par hectare et par an », indique Pascal Boeckx, « c’est presque deux fois plus que dans une forêt belge. Et c’est même plus que le CO2 absorbé dans la forêt amazonienne  ;». Ce qui fait dire au chercheur que le bassin du Congo n’est plus le deuxième, mais désormais le premier poumon de la planète. La tour climatique mesure aussi les niveaux de méthane et de protoxyde d’azote, deux autres gaz à effet de serre qui renforcent le réchauffement climatique. Partout dans le monde, des scientifiques mesurent la capacité d’absorption de la végétation grâce à plusieurs centaines de tours de ce type afin de mieux comprendre l’impact du changement climatique. Avec 220 millions d’hectares de végétaux répartis à travers plusieurs pays (République démocratique du Congo, Congo-Brazzaville et Gabon), la forêt du bassin du Congo est le deuxième massif forestier et écologique de la planète. Ce sont malheureusement quelquefois les communautés villageoises qui vivent et dépendent de la forêt qui la menacent par la surexploitation ou en pratiquant l’agriculture sur brûlis (défricher par le feu afin de pr&ea cute;parer le sol pour de nouvelles plantations). Des projets existent afin de protéger la forêt d’une trop grande exploitation. C’est ainsi qu'à Kisangani, en RDC, sont formés les futurs spécialistes gestionnaires des ressources forestières. Il s’agit par exemple de miser sur l’agroforesterie en formant les communautés locales à planter certaines essences à croissance rapide qui fertilisent les sols, à opérer des cycles de récolte, à se passer de tracteur pour labourer ou encore à planter des arbres appréciés par les abeilles afin de favoriser la pollinisation. Article rédigé par Georges Simmonds pour RT Flash RTBF | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Téléphone portable, tablette, télévision, montre connectée… les écrans sont partout et il est bien difficile de protéger les enfants de ces sources de lumière bleue. Pour preuve, le temps passé en moyenne chaque jour par les enfants de moins de deux ans devant les écrans en 2022 était de… 3 heures et 11 minutes ! Des chiffres qui ne font que s’accroître avec l’âge, ce qui inquiète un bon nombre de spécialistes de la petite enfance. Les gourous de la technologie, Bill Gates et Steve Jobs, ont également tous deux déclaré en interview qu’ils limitaient l'utilisation de l'écran par leurs enfants… c’est dire ! « Les enfants qui sont régulièrement en contact avec des écrans de téléphones portables, de tablettes ou d'ordinateurs sont plus irritables et ont une attention, une mémoire et une concentration moins bonnes que ceux qui ne les utilisent pas », explique le Docteur Álvaro Bilbao dans son livre Comprendre le cerveau de votre enfant. Le médecin en neuropsychologie et expert en lésions cérébrales, mentionne plusieurs recherches sur le sujet qui montrent que le risque de problèmes psychologiques et comportementaux augmente à mesure que les tout-petits passent du temps sur ces outils numériques. Ces troubles comprennent la dépression, le TDAH (trouble déficitaire de l’attention avec ou sans hyperactivité) ou encore le développement d’une dépendance. Selon le Docteur Bilbao, les écrans doivent « se retrouver progressivement dans les mains de l'enfant » une fois qu’ils ont acquis un développement émotionnel et intellectuel, soit dans l’idéal, après six ans. Il critique notamment certaines applications conçues pour les jeunes enfants dès 2 ou 3 ans, qui feraient plus de mal que de bien, pouvant les amener à « se désintéresser d'autres activités plus bénéfiques pour leur développement ». « Plutôt que d'aller vers une plus grande capacité d'attention et un plus grand contrôle de l'esprit de l'enfant, cela provoque à mon avis un retard… Ce serait comme donner une moto 800 CC à un enfant qui vient d'apprendre à marcher ». Le spécialiste et père de trois enfants affirme n&eac ute;anmoins que « de temps en temps, mes enfants utilisent le téléphone portable pour regarder des photos de nos vacances… et nous le faisons ensemble. Parfois, nous regardons une chanson avec eux et apprenons les mouvements de danse, mais ils ne jouent pas à des jeux. Nous limitons également leur temps devant la télévision ». Dans son ouvrage, le Docteur Bilbao donne quelques clés aux parents pour les aider à mettre en place un cadre offrant à leur progéniture un développement intellectuel et émotionnel sain. Chaque conseil est lié à une zone cérébrale spécifique et à la façon dont celle-ci se développe chez les enfants. Il rappelle à ce titre que le comportement des tout-petits est contrôlé par le tronc cérébral, soit le cerveau reptilien, et le système limbique, c’est-à-dire le cerveau émotionnel ; et non par le cerveau rationnel… Article rédigé par Georges Simmonds pour RT Flash EurekAlert | | | |
| Une infection virale ou virose désigne une maladie due à la transmission d’un virus, par voie directe ou indirecte, d’un patient contaminé à un autre. On distingue différentes formes d'infections virales comme le VIH ou l'hépatite C et B. D’après différentes recherches, les maladies infectieuses sont généralement plus graves chez les hommes que chez les femmes. Une récente étude a suggéré que cette différence pourrait s’expliquer par la présence d’une copie supplémentaire d’un gène chez les femmes. Lors de leur recherche, les scientifiques de l’Université de Californie à Los Angeles (UCLA) ont étudié des cellules tueuses naturelles (NK) humaines et de souris mâles et femelles. Il s'agit de lymphocytes qui agissent au niveau du système immunitaire. D’après leurs résultats, les cellules féminines détiennent une copie supplémentaire d'un gène lié au chromosome X, appelé UTX, qui agit comme un régulateur épigénétique pour renforcer la fonction antivirale des cellules NK, tout en diminuant leur nombre. « S'il est bien connu que les hommes ont plus de cellules NK que les femmes, nous ne comprenions pas pourquoi le nombre accru de cellules NK n'était pas plus protecteur lors d'infections virales. Il s'avère que les cellules NK des femmes contiennent plus d'UTX que celles des hommes, ce qui leur permet de lutter plus efficacement contre les infections virales », a précisé la Docteure Maureen Su, co-auteure principale de l'étude et professeure de microbiologie, d'immunologie et de génétique moléculaire, ainsi que de pédiatrie à la David Geffen School of Medicine de l’UCLA. Au cours de l’étude, les chercheurs ont remarqué que ce phénomène est véridique même lorsque les souris ne présentent pas de gonades, autrement dit les organes sexuels qui produisent les gamètes (les ovaires chez les femelles et les testicules chez les mâles). Selon eux, cela signifie que le gène UTX n'est pas lié aux hormones. En effet, les souris femelles ayant une faible expression d'UTX présentaient plus de cellules NK qui n'étaient pas en capacité de lutter aussi efficacement contre l'infection virale. « Cela implique que l'UTX est un déterminant moléculaire essentiel des différences sexuelles dans les cellules NK », a affirmé Mandy Cheng, auteure principale de l’étude et étudiante diplômée en biologie moléculaire à l’UCLA. Pour les responsables de l’ét ude, ces résultats pourraient permettre de faire évoluer les thérapies antivirales vers un modèle de médecine personnalisée qui prend en compte la génétique, l'environnement et d'autres facteurs qui influencent la santé et le risque de maladie. Article rédigé par Georges Simmonds pour RT Flash Nature | | | |
| Chacune des cellules des êtres vivants, y compris les mammifères, possède l’intégralité du patrimoine génétique. Elles ont toutes la même information génétique, le même ADN. Pourtant, l’usage qu’elles en font n’est pas le même, puisqu’une cellule de cœur ne ressemble pas du tout à un globule rouge ou à un neurone. D’autres facteurs entrent en jeu, dont l’épigénétique qui s’intéresse à la manière dont les cellules vont réguler les gènes. Cette discipline va étudier les changements qui s’opèrent dans l’expression (ou non) des gènes, des changements qui interviennent sans modifications dans l’ADN et qui peuvent se transmettre à la descendance. Il existe plusieurs processus de régulation épigénétique, dont l’empreinte parentale. Tous les mammifères héritent de leurs chromosomes en double, une copie provenant de chacun des parents. La majorité des gènes d’un organisme est exprimée à partir des deux copies. Or, parfois, une seule copie parentale est exprimée alors que l’autre est éteinte ; il sera soumis à empreinte parentale. L’expression du gène va alors dépendre de l’origine parentale. Plusieurs études menées chez l’humain et la souris ont montré que ces gènes soumis à empreinte parentale jouent un rôle majeur dans le comportement, la croissance et le développement pré et post-natal des descendants. En plus d’une régulation épigénétique, ces gènes peuvent aussi être porteurs de mutations génétiques. Il s’agit de modifications accidentelles qui apparaissent dans le génome et qui peuvent avoir des effets sur les gènes et potentiellement les phénotypes (l’ensemble des caractères observables d’un individu, tels que la couleur des yeux ou du pelage). Ces mutations peuvent se transmettre à la descendance et ce sont elles, entre autres, qui amènent de la variabilité entre des individus d’une même espèce, voire d’une même race, dans le cas des animaux domestiques. Des mutations ont été détectées dans les gènes à empreinte parentale chez les espèces porcine et ovine. Ces gènes représentent ainsi des modèles très intéressants pour caractériser la variabilité tant d’un point de vue génétique qu’épigénétique et ainsi élaborer des critères de sélection plus durables et responsables en élevage. Même si l’importance des gènes à empreinte parentale ne fait plus débat, il n’était pas possible jusqu’à présent d’évaluer leur implication dans la variabilité des phénotypes et donc leur importance dans la sélection animale. Il manquait un outil moléculaire aidant à leur détection et l’avènement des nouvelles technologies de séquençage permet aujourd’hui de les identifier. Des scientifiques du laboratoire GenPhySE ont donc mis au point, chez le porc, une technologie qui cible les gènes soumis à empreinte parentale. Leur outil moléculaire permet d’étudier de manière simultanée l’information génétique et épigénétique au niveau de ces gènes particuliers. Cet outil permettra ainsi de repérer les éventuelles mutations génétiques et/ou altérations épigénétiques qui expliqueraient les variabilités de caractères agronomiques chez le porc, mais aussi chez d’autres espèces, puisque la technologie est transférable. Ces travaux ouvrent de nouvelles perspectives pour un élevage plus responsable, en particulier chez le porc où le bien-être animal est souvent remis en question par la société. L’outil moléculaire pourra notamment servir à comprendre le potentiel impact des gènes à empreinte parentale dans le faible poids de naissance des porcelets qui conduit à des risques importants de mortalité avant le sevrage. Il sera ensuite possible de cibler ces gènes pour une sélection d’individus plus robustes. Article rédigé par Georges Simmonds pour RT Flash Inrae | | | |
| Une équipe internationale dirigée par les directeurs de recherche Inserm Mickael Tanter et Serge Picaud, associant respectivement le laboratoire Physique pour la médecine (ESPCI Paris/PSL Université/Inserm/CNRS) et l’Institut de la vision (Sorbonne Université/Inserm/CNRS) à Paris en partenariat avec l’Institut d’ophtalmologie moléculaire et clinique de Bâle, a apporté la preuve de concept de cette thérapie dite "sonogénétique" chez l’animal. Celle-ci consiste à modifier génétiquement certains neurones afin de pouvoir les activer à distance par des ultrasons. Les résultats montrent que, lorsqu’elle est utilisée sur les neurones de rongeurs, la sonogénétique permet d’induire une réponse comportementale associée à une perception lumineuse. Cette découverte permet d’envisager à plus long terme une application chez les personnes aveugles atteintes d’atrophie du nerf optique. L’étude est publiée dans Nature Nanotechnology. La thérapie sonogénétique consiste à modifier génétiquement certains neurones afin de pouvoir les activer à distance par des ultrasons. Cette technologie avait préalablement été testée en culture et les premiers tests in vivo n’avaient pas permis de prendre conscience de son potentiel thérapeutique lié à sa très haute résolution spatiotemporelle. La modification génétique en question consiste à introduire le code génétique d’un canal ionique mécanosensible dans les cellules. Les neurones qui expriment ce canal peuvent alors être activés à distance par des ultrasons de faible intensité appliqués à la surface du cerveau sans nécessiter de contact. Les ondes ultrasonores peuvent en effet accéder à des tissus en profondeur, comme dans le cortex visuel, même depuis la surface de la dure-mère qui entoure le cerveau, et cibler des zones très précises. Ce sont ces ondes qui sont à la base des technologies d’échographie ou d’imagerie du cerveau à haute résolution. Dans le cas présent, elles permettent une activation très sélective, puisque seuls les neurones porteurs du canal mécanosensible et ciblés par le faisceau ultrasonore sont stimulés. Dans une récente étude, une équipe de chercheurs et chercheuses, menée par les directeurs de recherche Inserm Mickael Tanter et Serge Picaud, a testé l’efficacité de cette thérapie sonogénétique chez l’animal. L’objectif de cette recherche est d’apporter une solution pour redonner la vue aux patients qui ont perdu la connexion entre leurs yeux et leur cerveau au cours de pathologies comme le glaucome, la rétinopathie diabétique, ou les neuropathies optiques héréditaires ou alimentaires. Leurs résultats indiquent que la stimulation sonogénétique du cortex visuel permet d’induire une réponse comportementale associée à une perception lumineuse. L’animal apprend un comportement associatif dans lequel il cherche à boire dès qu’il perçoit la lumière. La stimulation ultrasonore de son cortex visuel induit le même réflexe uniquement si les neurones du cortex expriment le canal mécanosensible. Le comportement de l’animal suggère que la stimulation sonogénétique de son cortex a induit la perception lumineuse à l’origine du réflexe comportemental. L’étude a montré que la thérapie fonctionne sur différents types de neurones, qu’ils soient dans la rétine ou dans le cortex visuel des rongeurs, démontrant ainsi le caractère universel de cette approche. En convertissant les images de notre environnement sous forme d’une onde ultrasonore codée pour stimuler directement le cortex visuel, et ce à des cadences de plusieurs dizaines d’images à la seconde, la thérapie sonogénétique apparaît comme un réel espoir pour restaurer la vue des patients ayant perdu la fonction du nerf optique. Plus généralement, cette approche de stimulation sonogénétique offre une technologie innovante pour interroger le fonctionnement du cerveau. À la différence des prothèses ou des stimulateurs neuronaux actuels, son fonctionnement "sans contact" et sélectif d’un type cellulaire représente une innovation majeure par rapport aux dispositifs avec électrodes. « Cette thérapie sonogénétique pour restaurer, à terme, la vision de personnes aveugles illustre la puissance d’un projet pluridisciplinaire et d’une belle aventure humaine entre un biologiste de la rétine comme Serge Picaud, et moi-même, un physicien des ondes pour la médecine », déclare Mickael Tanter, directeur de recherche Inserm au laboratoire Physique pour la médecine de Paris (ESPCI Paris/PSL Université/Inserm/CNRS). « Le développement d’un essai clinique de thérapie sonogénétique demande encore de passer par de nombreuses étapes pour valider son efficacité et sa sécurité. Si les résultats se confirment, cette thérapie pourrait réussir à restaurer la vue des patients de manière stable et en toute sécurité », conclut Serge Picaud, directeur de recherche Inserm et de l’Institut de la vision (Sorbonne Université/Inserm/CNRS). Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| On sait que pour augmenter sa masse musculaire, il faut des protéines, mais lesquelles ? … Dans cette étude de l’Université britannique d’Exeter, la micoprotéine (une protéine végétale issue du champignon) a une efficacité comparable aux protéines animales pour faciliter l’augmentation de la masse musculaire et la force chez les jeunes adultes s’entraînant régulièrement. Pour parvenir à ce résultat, les chercheurs ont d’abord étudié les données de 16 jeunes adultes en bonne santé lors de la première phase de l’essai clinique. Les participants ont suivi un régime de trois jours au cours duquel ils ont mangé des repas riches en protéines à base de viande ou de mycoprotéine. Mais c’est surtout la deuxième phase de l’essai qui est importante. Durant celle-ci, les scientifiques ont suivi 22 autres jeunes adultes en bonne santé qui ont suivi un programme d'entraînement de 10 semaines. Certains suivaient un régime omnivore riche en protéines et d’autres n’avaient droit qu’à un régime végétalien et comportant de nombreuses mycoprotéines. Résultats : les personnes suivant un régime omnivore riche en protéines ont augmenté leur masse musculaire d’environ 2,6 kilogrammes (kg) tandis que le groupe végétarien l’a amélioré d’un peu plus de 3 kg. En revanche, dans les deux groupes, la taille des muscles de la cuisse a augmenté de 8,3 %. « Nous disposons maintenant de preuves solides pour montrer que la mycoprotéine est un aliment protéique efficace pour soutenir le maintien et la croissance musculaire », assure Alistair Monteyne. Ainsi, ne plus manger de protéines animales ne serait pas néfaste pour les muscles, bien au contraire. Si vous souhaitez remplacer les protéines provenant de la viande ou des produits laitiers, vous pouvez consommer des poudres de protéines végétariennes ou bien trouver ces protéines dans l’alimentation : protéine de soja (tofu, tempeh, lait de soja, edamame), de pois (pois, pois cassés), de graines de chia, de riz, de quinoa, d’amande, de lentilles, etc. Néanmoins, il faut faire attention si vous retirez toute forme de protéine animale car ce sont elles qui contiennent généralement les protéines complètes, c’est-à-dire celles contenant les neuf acides aminés essentiels dont le corps humain a besoin. En effet, la plupart des protéines végétales – sauf certaines comme le soja ou le quinoa par exemple – ne contiennent pas tous les acides aminés essentiels, on dit qu’il s’agit de protéines incomplètes. Il faut donc les combiner à différentes protéines végétales pour obtenir tous les acides aminés essentiels. Par exemple, allier des céréales et des légumineuses, comme le riz et les haricots, vous permettra d’avoir des protéines complètes. Article rédigé par Georges Simmonds pour RT Flash University of Exeter | | | |
| « Les infections résistantes aux antibiotiques sont responsables de plus de 1 million de décès chaque année, dont 250 000 enfants de moins de cinq ans », explique Alexandre Persat, professeur à la tête du laboratoire de mécanique microbienne de l’EPFL. « Pour l’instant, nous sommes très mal armés pour lutter contre ce fléau », continue-t-il. « La situation est déjà catastrophique, et si nous ne trouvons pas rapidement des solutions, elle ne fera qu’empirer ». Les bactéries dites multirésistantes sont notamment la cause de nombreux décès lors d’infections nosocomiales (infection contractée au cours d’un séjour dans un établissement de soins). « L’Organisation mondiale de la santé a appelé au développement de nouveaux médicaments, et a spécifiquement listé le Pseudomonas aeruginosa comme un pathogène critique », souligne le professeur. C’est justement sur cet agent pathogène qu’il effectue des recherches. Le Pseudomonas provoque des infections dévastatrices chez les patients immunodéprimés et les individus atteints de mucoviscidose (70 % d’incidence) et représente 15 % des infections nosocomiales. « La colistine est l’antibiotique de dernier recours pour traiter les infections au Pseudomonas. Elle est, dans certains cas, déjà inefficace. Ces patients n’ont par conséquent plus d’espoir de s’en sortir », alarme-t-il. L’émergence de pathogènes résistants aux antibiotiques est un problème de santé global. Il est influencé par de nombreux facteurs, tels que l’utilisation excessive d’antibiotiques dans l’agriculture. « La recherche fondamentale a une place importante pour résoudre ce problème, car elle seule peut nous aider à identifier certains talons d’Achille des bactéries qui constitueraient des cibles pour de nouveaux traitements », note Alexandre Persat. Son laboratoire étudie un aspect autrefois négligé des agents pathogènes : leur sens du toucher. L’équipe a démontré que le Pseudomonas aeruginosa devient plus virulent lorsqu’il s’attache à une surface. Dans une étude récente publiée dans The EMBO Journal, les chercheuses et chercheurs ont identifié les mécanismes moléculaires précis qui permettent à cette classe de bactéries de ressentir mécaniquement les surfaces. « Ce mécanisme de stimulation par contact avec une surface semble jouer un rôle important dans la progression de l’infection, mais aussi dans la sensibilité aux antibiotiques », révèle Alexandre Persat. « Les surfaces molles, comme celles de nos poumons, stimuleraient ainsi la formation de biofilms qui sont des terrains propices à la résistance aux antibiotiques comme le montre le résultat de nos recherches, ajoute-t-il. « Grâce à ces données inédites, nous pouvons désormais imaginer de nouvelles stratégies pour lutter contre les infections au Pseudomon as. » Pour lutter contre les pathogènes résistants, il est important de trouver de nouvelles classes d’antibiotiques. Mais cette approche est limitée, car, tôt ou tard, les bactéries vont évoluer pour devenir résistantes et continuer à pouvoir se propager en créant ainsi de nouvelles infections. La deuxième approche, adoptée par le professeur Persat, consiste non pas à tuer les bactéries, mais à les désactiver en utilisant une nouvelle classe de molécules appelées anti-virulentes qui rend le pathogène incapable d’infecter sans le tuer. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Les plaques amyloïdesAβ, agrégats de protéines qui envahissent progressivement le cerveau, participent à la dégradation des communications entre les neurones. Premiers signes pathologiques de la maladie d'Alzheimer, elles apparaissent silencieusement dans le cerveau des décennies avant que les symptômes de la maladie ne se manifestent. Pour les détecter dans le cerveau, la seule solution à ce jour est d’avoir recours à des techniques de médecine nucléaire (imagerie à l’aide d’un traceur radioactif). Un consortium européen, mené par des scientifiques du Laboratoire de chimie (CNRS/ENS de Lyon/Université Claude Bernard Lyon 1) et du Centre de recherche en neurosciences de Lyon (CNRS/Université Claude Bernard Lyon 1/Université de St Etienne/Inserm),a conçu, caractérisé et évalué sur différents modèles animaux, un nouvel agent d'imagerie multimodal ciblant les plaques amyloïdes-β (Aβ). L’originalité de cet agent de contraste : sous forme de nanoparticules de fluorure de gadolinium, il est enrobé d'une molécule spécifiquement conçue pour se lier aux plaques Aβ. Le noyau gadolinium, facilement observable en imagerie par résonance magnétique (IRM) mais aussi par imagerie aux rayons X, et la molécule greffée, détectable en imagerie par fluorescence, permettent ainsi de croiser plusieurs types d'imageri e pour étudier la pathologie à différentes échelles spatiales et mieux la diagnostiquer. Dans ce travail, la stabilité et les propriétés magnétiques et fluorescentes de l'agent de contraste ont été vérifiées in vitro (en tubes). La capacité de l'agent de contraste à se lier aux plaques Aβ et à fournir un signal détectable en IRM, rayons X ou imagerie de fluorescence, a ensuite pu être démontrée in vivo dans des modèles rongeurs (rats et souris présentant des plaques amyloïdes Aβ). Des résultats qui montrent que cette nouvelle classe d'agents de contraste polyvalents pourra maintenant être utilisée pour cibler des processus pathologiques dans le cerveau. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Des chercheurs américains ont annoncé des résultats positifs concernant une nouvelle thérapeutique contre le cancer gastrique, combinant des fragments d’anticorps avec des nanoparticules moléculaires. Cette avancée est le fruit de plus de cinq ans de collaboration entre Cornell, le Memorial Sloan Kettering Cancer Center (MSKCC) et la société biopharmaceutique AstraZeneca. « J’ai déjà vu de beaux résultats, mais je n’ai jamais vu quelque chose qui éradique une tumeur comme celle-ci », a déclaré la Docteure Michelle Bradbury, co-auteur principal de l’étude, directrice de l’imagerie peropératoire du MSKCC et professeur de radiologie à Weill Cornell Medicine. Les traitements ciblés contre le cancer, tels que les thérapies par anticorps et nanoparticules, ont connu jusqu’à présent une utilisation clinique trop restreinte, en raison des limites de chaque thérapie, mais la nouvelle thérapie est parvenue à combiner les meilleurs attributs des deux approches et à surmonter ces limites. Les nanoparticules de silice, de seulement 6 nanomètres de taille, sont en effet assez petites pour pénétrer les tumeurs et passer en toute sécurité à travers les organes une fois injectées dans le corps. AstraZeneca a conçu des fragments d’anticorps afin qu’ils se fixent efficacement sur ces nanoparticules, et ciblent les protéines HER2 associées au cancer gastrique. L’équipe a optimisé la conjugaison des fragments, ainsi que des médicaments inhibiteurs spécialisés développés par AstraZeneca. Cela a permis aux nanoparticules de transporter environ cinq fois plus de médicaments que la plupart des anticorps. « Cette nouvelle approche combinée cible le microenvironnement tumoral et tue les cellules tumorales. Quant aux nanoparticules, elles sont éliminées en toute sécurité par l’organisme, en raison de leur petite taille, minimisant ainsi l’accumulation hors cible, et les effets secondaires », souligne l’étude. Les souris atteintes d’un cancer gastrique ont reçu trois doses du traitement. Non seulement le traitement a éradiqué la maladie chez chaque souris, mais ces dernières n’ont connu aucune récidive tumorale plus de sept mois après le traitement… Article rédigé par Georges Simmonds pour RT Flash EurekAlert | | | |
| Des chercheurs de l’Université d’Adélaïde (Australie) dirigés par le Professeur Sweeney, ont montré que l’enzalutamide, un inhibiteur oral des récepteurs aux androgènes, pourrait grandement améliorer les chances de survie des malades atteints d’un cancer de la prostate métastatique. L’essai, nommée ENZAMET, a comporté trois phases et inclus 83 instituts de recherches différents à travers le monde. Au total, 1 125 malades ont été suivis pendant une durée moyenne de 34 mois. Les scientifiques ont alors découvert que chez les participants ayant reçu une suppression de testostérone (considérée comme l’une des causes du cancer de la prostate), 80 % de ceux qui avaient reçu de l’enzalutamide étaient encore vivants trois ans plus tard contre 72 % chez ceux qui avaient été traités de façon classique. A terme, les chercheurs ont noté un taux d'amélioration de 60 % et plus 33 % de chances de survie, soit des résultats « beaucoup plus importants qu’attendus ». « Ces découvertes offrent une nouvelle option efficace pour traiter le cancer de la prostate métastatique hormono-sensible », se félicitent les chercheurs. « Ajouter de l’enzalutamide à la suppression de testostérone chez les hommes souffrant d’un cancer de la prostate métastatique hormono-sensible peut donner un meilleur contrôle du cancer et une chance de survie plus longue (…). C’est vrai pour les patients à un stade très avancé, avec des multiples métastases des os ou du foie, comme pour les hommes diagnostiqués de façon plus précoce. La nouvelle option de traitement est surtout valable pour ceux qui ne peuvent pas tolérer la chimio et ne sont pas à un stade dramatique du cancer », expliquent-ils. Article rédigé par Georges Simmonds pour RT Flash News Medical | | | |
| Des chercheurs de l'Université de Cambridge ont mis au point un nouveau type d’implant neuronal qui pourrait restaurer la fonction des membres chez les personnes qui ont perdu l’usage de leurs bras ou de leurs jambes. Dans une étude menée chez le rat, ses chercheurs ont utilisé cet implant “biohybride” pour améliorer la connexion entre le cerveau et les membres paralysés. Ces chercheurs ont conçu un dispositif électronique flexible biocompatible qui est assez mince pour être connecté à l’extrémité d’un nerf. Une couche de cellules souches, reprogrammée en cellules musculaires, a ensuite été placée sur l’électrode. C’est la première fois que ce type de cellule souche, appelée cellule souche pluripotente induite, est utilisé de cette manière dans un organisme vivant. Le dispositif combine une électronique flexible et des cellules souches humaines – les cellules maîtresses "reprogrammables" du corps – pour mieux s’intégrer à la fonction du nerf et du membre moteur. Outre son potentiel pour la restauration de la fonction chez les personnes qui ont perdu l’usage d’un membre ou de membres, les chercheurs pensent que leur dispositif pourrait également être utilisé pour contrôler les membres prothétiques en interagissant avec des axones spécifiques responsables du contrôle moteur. L'étude précise que « En combinant des cellules humaines vivantes avec des matériaux bioélectroniques, nous avons créé un système capable de communiquer avec le cerveau de manière plus naturelle et intuitive, ouvrant de nouvelles possibilités pour les prothèses, les interfaces cerveau-machine et même l’amélioration des capacités cognitives ». Article rédigé par Georges Simmonds pour RT Flash Cambridge | | | |
| La douleur, en particulier lorsqu’elle devient chronique, représente la première cause de consultation médicale et constitue un enjeu majeur en santé publique. A l’heure actuelle, les analgésiques disponibles sur le marché manquent souvent d’efficacité et présentent tous des effets secondaires entravant la qualité de vie des patients. Développer de nouveaux analgésiques est l’un des enjeux que les scientifiques essayent de relever. Pour étudier la douleur, il faut pouvoir l’induire, et c’est là un des problèmes majeurs dans ce domaine. En effet, les stimuli d’induction de la douleur habituellement utilisés ont une faible résolution spatio-temporelle, génèrent des réactions ayant une grande variabilité, mais surtout sont invasifs. Pour toutes ces raisons, l’analyse in vivo des voies de la douleur est limitée, pour des raisons éthiques évidentes, limitant ainsi que la recherche de nouvelles molécules de prise en charge de la douleur. Des scientifiques ont mis au point une méthode d’optopharmacologie qui permet de contrôler avec une grande précision spatiotemporelle l’excitabilité des neurones impliqués dans la douleur chez l’animal éveillé, par une simple impulsion de lumière dans l’ultraviolet (UV). En contrôlant ces neurones, il est ainsi possible de contrôler le comportement douloureux de façon réversible et ceci chez le ver nématode C. elegans comme chez la souris. Le composé chimique développé, LAKI, est inactif en lumière ambiante et il peut être activé par une illumination dans l’UV, de manière instantanée, réversible et reproductible à l’infini. Après une simple injection de LAKI et son activation en lumière UV, le signal douloureux est transmis au système nerveux. Les applications de ce nouvel outil sont multiples. Il permettra par exemple l’étude des voies de la douleur chez la souris de manière plus éthique puisqu’il sera possible de réduire au maximum les signaux douloureux. De plus, les mécanismes cellulaires de la douleur sont conservés au cours de l’évolution : ainsi, dans un autre modèle de laboratoire, le ver nématode incubé dans un bain contenant LAKI, la lumière induit un comportement d’échappement (le ver se met à tourner en rond au lieu de nager). Ce comportement est inhibé si on ajoute un analgésique tel que l’ibuprofène, le paracétamol ou le Néfopam. En combinant le modèle ver avec le composé LAKI, il est désormais possible de cribler à large échelle de nouvelles molécules analgésiques sans recourir à la gé nétique ou la chirurgie. Cette étude lève un verrou conceptuel et va permettre maintenant de rechercher de nouveaux analgésiques en criblant à haut débit l’effet de nouvelles molécules sur les nématodes. Il est dès lors possible, sans infliger une douleur permanente à un mammifère, de caractériser les drogues validées par un premier criblage chez le nématode. Enfin, en disséquant le mode d’action de la molécule, les scientifiques ont mis en évidence que la forme activée par les UV agit sur les protéines membranaires TREK1, TREK2 et TRESK responsables des flux d’ions potassium dans les cellules. L’utilisation de LAKI ouvrira donc également de nouvelles pistes dans l’étude des signaux contrôlés par TREK1, TREK2 et TRESK dont l’activité pourra désormais être finement télécommandée g râce à LAKI. Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Une seule cellule contient 2 à 3 mètres d’ADN, ce qui signifie que le seul moyen de le stocker est de l’envelopper dans des bobines serrées. La solution est la chromatine : un complexe d’ADN enroulé autour de protéines appelées histones. Dans l’espace 3D, ce complexe est progressivement replié en une organisation multicouche composée de boucles, de domaines et de compartiments, qui constituent ce que l’on appelle les chromosomes. L’organisation de la chromatine est étroitement liée à l’expression des gènes et au bon fonctionnement de la cellule, de sorte que tout problème dans la structure de la chromatine peut avoir des effets néfastes, dont le développement du cancer. Un événement commun à environ 30 % des cancers humains est la duplication complète du génome, processus au cours duquel l’ensemble des chromosomes d’une cellule est dupliqué. La duplication complète du génome entraîne une instabilité génomique à l’intérieur de la cellule, ce qui peut aboutir à des altérations chromosomiques et à d’autres mutations qui contribuent au développement du cancer. Une équipe de chercheuses et chercheurs, dirigée par Elisa Oricchio de l’EPFL et Giovanni Ciriello de l’UNIL, vient de découvrir un nouvel indice sur la façon dont la duplication complète du génome favorise le cancer. Dans une étude publiée dans la revue Nature, les scientifiques montrent que la duplication complète du génome peut nuire à l’organisation 3D de la chromatine à l’intérieur de la cellule par le biais d’un phénomène appelé «perte de la ségrégation de la chromatine». Les chercheuses et chercheurs ont étudié des cellules dépourvues du gène suppresseur de tumeur p53, ce qui les expose à la duplication complète du génome. Ils ont découvert que la duplication complète du génome entraîne une diminution de la ségrégation des éléments structurels de la chromatine, comme les boucles, les domaines et les compartiments, ce qui bouleverse son organisation minutieuse dans la cellule. Il s’ensuit un mélange de matériel génétique qui, en temps normal, est séparé, ce qui modifie la position des régions génomiques dans l’espace 3D. Ce phénomène est appelé "repositionnement des sous-compartiments". Cela ouvre la voie à l’activation des oncogènes, qui sont des gènes contribuant au développement du cancer. Les chercheuses et chercheurs ont également découvert que les effets de la duplication complète du génome sur l’organisation de la chromatine sont largement indépendants des altérations chromosomiques. Autrement dit, la perte de la ségrégation de la chromatine et l’instabilité chromosomique sont des mécanismes complémentaires qui agissent ensemble pour favoriser le développement du cancer. Leurs travaux permettent de voir sous un nouveau jour le rôle de la duplication complète du génome et de l’organisation de la chromatine dans le développement du cancer. À l’avenir, des profils moléculaires unicellulaires hautement multiplexés, combinés à des technologies de codage à barres et à de nouvelles approches informatiques, pourraient permettre de mieux comprendre le rôle joué par la désorganisation de la structure 3D de la chromatine dans la transformation d’une cellule en une cellule cancéreuse. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| L'électroporation consiste à perforer la membrane cellulaire à l’aide d’un champ électrique pour y faire passer une substance thérapeutique. Une équipe de scientifiques franco-allemands dévoile dans la revue PNAS des éléments essentiels à la compréhension de ce phénomène largement utilisé mais encore peu compris. L’électroporation est une technique bien établie qui permet de surmonter la barrière de la membrane cellulaire. Une brève impulsion électrique perce la membrane, permettant ainsi la délivrance de substances thérapeutiques à l'intérieur des cellules : médicaments, ADN et bien d'autres biomolécules. Mais cette technique, qui représente un marché de plusieurs milliards de dollars, repose étonnamment sur de maigres connaissances fondamentales. Une équipe du CNRS et ses collègues de l'Université de Fribourg-en-Brisgau dévoile un vaste ensemble de nouvelles données sur la formation de pores dans les membranes lipidiques sous champ électrique. Ces résultats montrent non seulement que les modèles de formation de pores existants ne peuvent rendre compte des observations, mais suggèrent également un mécanisme plu s probable de formation des trous membranaires. Les membranes lipidiques sont des auto-assemblages bidimensionnels de molécules amphiphiles. Elles forment les parois extérieures et intérieures des cellules, organisant ainsi les compartiments cellulaires, contrôlant les échanges de matière et servant de support aux réactions, à la transmission des signaux et à de nombreux autres processus essentiels à la vie. Ces membranes sont des contrôleurs de flux très efficaces : si elles permettent aux molécules d'eau de traverser facilement la barrière lipidique de 5 nm d'épaisseur, elles restent par contre très imperméables à la majorité des molécules hydrosolubles. Imperméabilité que l’application de champs électriques permet de surmonter en ouvrant des pores. Au cœur des divergences entre les modèles existants et les nouvelles expériences se trouve la fréquence de formation des pores sous un champ électrique. Cette fréquence, qui dépend de la quantité d'énergie nécessaire pour ouvrir un pore, est mesurée en comptant combien de pores se forment pendant une seconde d'application du champ électrique. Sous des champs électriques croissants, cette énergie est réduite et les pores peuvent s'ouvrir spontanément. Les modèles existants supposent que le champ électrique applique une pression sur la membrane, ce qui facilite l'ouverture des pores. Mais un tel effet prédit une dépendance quadratique avec le champ : doubler la valeur du champ devrait diminuer le coût énergétique par un facteur quatre. A l’inverse, les scientifiques ont observé que l'abaissement de la barrière énergétique varie linéairement avec le champ électrique. Cette dépendance linéaire suggère un mode d’action différent du champ : en faisant pivoter les molécules de la fine couche d'eau en contact intime avec la membrane, le champ électrique déstabiliserait l’interface membrane-eau. De quoi relancer théoriciens et simulateurs numériques à la recherche d’une vraie compréhension de ce phénomène-clé qui permettrait d’améliorer le transport des substances actives dans les cellules. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|