| | Edito Avons-nous conscience des conséquences du libre accès des jeunes enfants aux écrans ?
Depuis quelques mois, plusieurs études scientifiques sérieuses sont venues révéler de manière concordante les conséquences physiologiques, psychiques et relationnelles, jusqu’alors sous estimées, d’une exposition des jeunes enfants et adolescents aux nombreux écrans qui peuplent leur environnement. Une étude publiée dans la revue scientifique Nature en mai 2017 a montré que les tout-petits (de 6 à 36 mois) exposés aux écrans en fin de journée ont une durée de sommeil sensiblement réduite, à cause de la lumière bleue émise par les smartphones et tablettes. Celle-ci perturbe la synthèse de mélatonine, une hormone-clé dans le déclenchement du sommeil (Voir Nature). L'excès d'exposition aux écrans aurait également des effets néfastes sur la vue des adolescents : 48 % de ceux qui passent plus de huit heures par jour sur un écran développeraient une « myopie fonctionnelle » (déficit d'accommodation à la vue de loin). La Fédération française de cardiologie pousse pour sa part un cri d’alarme sur les ravages à terme de la sédentarité liée aux écrans. Elle souligne que moins du quart des 6-17 ans atteignent les 60 minutes d’activité physique quotidienne recommandées par l’OMS, avec à la clé une forte augmentation des adolescents en surpoids et une hausse sensible des risques de diabète et de maladies cardiovasculaires à l’âge adulte. David Thivel, membre du conseil scientifique de l’Observatoire national de l’activité physique et de la sédentarité (Onaps), confirme cette évolution préoccupante et souligne que la surconsommation d’écrans chez les jeunes favorise une consommation excessive d’aliments à densité énergétique élevée et réduit le temps de sommeil, ce qui induit un état de fatigue chronique que connaissent bien et constatent nombre d’enseignants… Il y a quelques jours, une étude de l’Université du Colorado à Boulder a par ailleurs montré que les enfants d'âge préscolaire exposés à la lumière durant la nuit n'ont pratiquement plus de mélatonine. Ces travaux montrent en effet qu’une seule heure d’exposition à la lumière avant l’heure du coucher diminue considérablement les niveaux d'hormone du sommeil (Voir The Physiological Society). Dans cette étude, les chercheurs ont prélevé régulièrement des échantillons de salive sur dix enfants pour mesurer leur taux de mélatonine. Après avoir passé pendant une semaine la journée dans un environnement de faible luminosité, les enfants ont été invités à jouer avec des carreaux magnétiques sur une table lumineuse durant une heure. A l’issue de ce temps de jeu, ces chercheurs ont à nouveau mesuré les niveaux de mélatonine, pour les comparer à ceux pris la nuit précédente. Ils ont ainsi pu constater que les niveaux de cette hormone avaient diminué de 88 % après l'exposition des enfants à la lumière vive ; ces travaux ont par ailleurs montré que ces niveaux très réduits de mélatonine persistaient plus d’une heure après l'extinction de l a lumière ; ce qui confirme l’hypothèse d’un important retard d’endormissement provoqué par l’exposition nocturne aux écrans. Cette étude rappelle enfin que la mélatonine n’intervient pas seulement pour réguler le sommeil, mais joue également un rôle important dans d'autres processus métaboliques, comme la régulation de la température corporelle, de la pression sanguine, ou encore le cycle du glucose, une raison supplémentaire, selon ces chercheurs, d’éviter l’exposition à la lumière chez les jeunes enfants, et de supprimer les écrans numériques, juste avant le coucher. Outre les effets délétères sur la santé, de plus en plus de professionnels s'inquiètent des retards de langage ou troubles du comportement associés à une exposition précoce et excessive aux écrans. D'après une étude de l'Université de Toronto publiée en mai 2017, plus un enfant passe de temps devant un écran, plus il a de retard dans l'apprentissage du langage. Dans cette étude dirigée par Catherine Birken et réalisée sur des enfants âgés de 6 mois à 2 ans et suivis entre 2011 et 2015, les chercheurs ont suivi 894 binômes parents-enfants dans lesquels ces derniers étaient âgés de six mois à deux ans. Les parents de 20 % des bébés laissaient ces derniers devant un écran pendant environ 30 minutes mais 69 % des sujets n’étaient pas du tout exposés à une tablette ou à un smartphone. Chez les plus petits, chaque demi-heure passée passivement devant un écran entraînerait une augmentation de 49 % du risque de retard dans l’apprentissage du langage. Ces travaux ont conduit les pédiatres canadiens à recommander aux parents de ne pas exposer les enfants de moins de trois ans à un smartphone ou à une tablette. Ces recherches sont corroborées par ceux de la chercheuse Linda Pagani, réalisés à partir d’une cohorte d’enfants nés en 1997. Ces recherches montrent en effet que les bébés les plus exposés aux écrans, à l’âge de deux ans et demi, deviennent à cinq ans « moins aptes aux mathématiques et la lecture, moins persévérants et moins habiles socialement ». Selon Michel Desmurget, chercheur en neurosciences, « La frénésie numérique actuelle affecte négativement les résultats scolaires, le langage, la concentration et le goût de l'effort ». Ce spécialiste rappelle qu’à quatre ans, un enfant sans télévision et évoluant dans une famille favorisée aura partagé 45 millions de mots avec ses proches. Mais si le même enfant regarde régulièrement la télévision, ce nombre diminue de 40 % et tombe alors au même niveau que s’il avait été élevé dans une famille défavorisée… Ces différents travaux et études ont conduit les professionnels de la santé et de la petite enfance à publier récemment une Tribune remarquée dans le journal « Le Monde », dans laquelle ils alertent l’opinion publique des graves effets d’une exposition massive et précoce des bébés et des jeunes enfants aux différents écrans : smartphone, tablette, ordinateur, console, télévision. Dans ce texte, plusieurs éminents spécialistes et chercheurs, parmi lesquels Sabine Duflo, psychologue, Sylvie Dieu-Osika, pédiatre à l’hôpital Jean Verdier de Bondy, Eric Osika, pédiatre à l’hôpital Ste Camille de Bry-sur-Marne ; Anne Lefebvre, psychologue clinicienne en pédopsychiatrie, Christian Zix, neuropédiatre, directeur médical du CAMSP de St-Avold (Moselle) et Lise Barthélémy, pédopsychiatre à Montpellier, s’interrogent sur l’impact neurocérébral et psychologique d’une surexposition des tout petits aux écrans. Ces spécialistes soulignent qu’ils voient de plus en plus en consultations de jeunes enfants stimulés principalement par les écrans, qui, à 3 ans, ne les regardent pas quand ils s’adressent à eux, ne communiquent pas, et sont très agités ou, au contraire très passifs. Mais ces médecins et chercheurs évoquent également l’observation de troubles encore plus graves chez certains enfants surexposés aux écrans, troubles qui seraient proches de ceux caractérisant certaines formes d’autisme : absence de langage, troubles de l’attention, incapacité d’orienter son regard vers l’adulte. Leur hypothèse pour expliquer ces phénomènes inquiétants est que l’omniprésence des écrans vient casser le lien relationnel et affectif qui se construit normalement entre le bébé et ses parents. Trop soumis aux écrans, il semblerait que certains enfants ne parviennent plus à développer l’ensemble des liens sensoriels, affectifs et cognitifs, impliquant les regards, les gestes et la voix, qui sont nécessaires pour construire harmonieusement leur autonomie et leurs échanges symboliques avec les adultes. Heureusement, cette situation semble réversible et les signataires de cette tribune insistent sur le fait que lorsque ces enfants retrouvent un bas niveau d’exposition aux écrans, leur appétence pour le jeu et la communication verbale revient, ainsi que leur curiosité pour leur environnement. Pour prévenir ces troubles et retards du développement chez les bébés et les jeunes enfants, ces spécialistes souhaitent que des campagnes nationales d’information, conçues en toute indépendance des puissants groupes de l’industrie numérique, soient menées et diffusées, avec le soutien des pouvoirs publics, de la communauté médicale et des familles dans tous les lieux de la petite enfance ; ils préconisent également que des recherches indépendantes soient menées pour mieux comprendre et évaluer les nombreux effets neurocérébraux, psychologiques, affectifs et cognitifs de l’exposition aux écrans des tous petits. Dans un remarquable petit essai intitulé « Du livre et des écrans », le psychanalyste Serge Tisseron, qui travaille depuis de nombreuses années sur les effets de l’image, de la mutation numérique et de la réalité virtuelle sur les enfants et adolescents, rappelle que le jeune enfant a d’abord besoin d’éprouver physiquement le monde qui l’entoure et de tisser des liens symboliques forts et stables avec ses parents et les adultes qu’il côtoie. Il doit également apprendre à se repérer dans une temporalité qu’il ne maîtrise pas immédiatement et qu’il va peu à peu explorer grâce aux livres d’images et aux histoires que lui racontent ses parents. Ce n’est qu’une fois cette étape fondamentale franchie qu’il est prêt à « affronter », avec la média tion de ses parents, les écrans et qu’il peut alors en tirer un réel bénéfice en termes de plasticité psychique, d’acquisition de connaissances et de créativité. Il ne s’agit donc pas de tomber dans un débat manichéen ou de s’enfermer dans un conservatisme stérile et vain, en refusant d’exploiter les immenses potentialités qu’offre la révolution numérique pour l’épanouissement des enfants et leur développement cognitif, mais d’apprendre à maîtriser la puissance de ces nouveaux outils, et à en inscrire l’accès et l’utilisation dans un cadre relationnel, affectif et symbolique qui en exprime les aspects positifs et ne conduise pas à une réduction dévastatrice de la pensée, de l’imaginaire et de l’intérêt pour autrui. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Santé, Médecine et Sciences du Vivant | |
| | | La diarrhée du voyageur est une maladie fréquente, qui touche plus d'un milliard de cas chaque année. Cette diarrhée, souvent bénigne, peut toutefois entraîner une déshydratation mortelle chez les nourrissons ou d'autres personnes vulnérables. Des centaines de milliers de décès peuvent être attribués à cette maladie bactérienne causée par Escherichia coli entérotoxinogène (ETEC), qui envahit l'intestin grêle avec ses structures en forme de bras appelées « pili ». Les chercheurs de l'Ecole de Médecine de l'Université de Boston (BUSM) ont exposé des petits intestins humains reconstitués (organoïdes) à la bactérie ETEC en présence et en l'absence de la protéine histatine-5. L'examen au microscope montre qu’en présence d'histatine-5, beaucoup moins de bactéries sont capables de se fixer au tissu entérique : la protéine histatine-5 présente dans la salive humaine modifie les pili de l’ETEC et empêche les bactéries d'adhérer efficacement à l'intestin grêle, explique Esther Bullitt, professeur agrégé de physiologie et de biophysique à BUSM et auteur principal de l’étude. La salive peut jouer un rôle important dans la protection du corps contre les infections intestinales, montre en substance cette étude. Selon les chercheurs, cette première ligne de défense buccale explique pourquoi il faut un si grand nombre d'ETEC pour infecter un humain. Ces recherches pourraient permettre de développer une poudre à base d’histatine-5 pour prévenir la diarrhée du voyageur. Mais cette découverte suggère aussi que d'autres protéines salivaires pourraient protéger contre d’autres maladies, dont la gastrite infectieuse, l'intoxication alimentaire ou même la pneumonie. Article rédigé par Georges Simmonds pour RT Flash Santé LOG | | | |
| En oncologie, l’optimisation du traitement du cancer est l’un des objectifs premiers. En ce sens, l’Hôpital del Mar de Barcelone est le premier centre hospitalier d’Espagne à tirer profit de l’impression 3D pour traiter les tumeurs de taille réduite de certains types de cancers de la peau grâce à la plésiothérapie à fort débit de dose, une sorte de curiethérapie de contact (utilisation de sources de radiation situées à l’intérieur ou proches de la zone affectée). Cette technique permet d’élaborer et d’ajuster au fur et à mesure le traitement et la dose indiquée pour chaque patient, d’épargner des visites à l’hôpital ainsi que des douleurs ultérieures aux patients, et de limiter les effets secondaires. Son application pour d’autres tumeurs est désormais à l’étude. L’intégration de l’impression 3D a été rendue possible grâce à la collaboration de l’entreprise BSDI-3DBOTICS, du groupe 3DLAB S.L et des étudiants en licence de bio-ingénierie de l’Université Pompeu Fabra. Elle permettra à terme d’automatiser et d’améliorer la qualité des moules manuels employés pour l’administration de curiethérapie. Le processus manuel de fabrication des moules qui servent de guide aux sources de radiation présente les limites suivantes : en premier lieu, il est très difficile de parvenir à une géométrie parfaite à la main, tout comme de s’assurer qu’il ne reste pas d’air entre la peau et le moule. Enfin, il constitue une gêne pour le patient puisque le praticien est contraint de travailler sur lui. Force est alors de constater que l’impression 3D pallie tous ces inconvénients. Un programme informatique permet de déterminer plus facilement l’emplacement des sources de radiations afin d’irradier la tumeur et de personnaliser au mieux le traitement. Tout cela a des répercussions positives sur le malade qui, en plus d’éviter le processus de fabrication manuelle, assiste à la réduction des possibles douleurs causées par l’irradiation de la peau puisque le modèle est virtuel. Article rédigé par Georges Simmonds pour RT Flash Diplomatie | | | |
| La maladie de Huntington est une affection neurodégénérative qui touche en France environ 18 000 personnes dont 12 000 sont encore sans symptômes. Elle se manifeste classiquement entre 30 et 50 ans par des mouvements brusques involontaires (chorée) et des troubles comportementaux et cognitifs. La pathologie est due à la mutation du gène codant la protéine huntingtine qui provoque une dégénérescence des neurones débutant dans le striatum, zone du cerveau impliquée dans le contrôle des mouvements. Les mécanismes qui conduisent à la neurodégénérescence sont encore largement incompris. Des pistes existent néanmoins, parmi lesquelles des anomalies de la transcription. Une collaboration menée par des chercheurs de l'Institut François-Jacob, au MIRCenn, montre que la réduction de la production d'une enzyme, DCLK3, observée dans les neurones du striatum des malades ou d'organismes modèles de la pathologie, pourrait participer à la vulnérabilité des neurones en agissant de manière globale sur la transcription. La fonction de DCLK3 est inconnue mais, selon des études très récentes, son activité pourrait moduler la survie des cellules. Les travaux du MIRCen montrent, dans un modèle murin de la maladie de Huntington, que réduire l'expression de DCLK3 exacerbe la toxicité du mutant de l'huntingtine. Inversement, augmenter la production de DCLK3 protège les neurones de la dégénérescence. Toujours dans un modèle murin de la maladie, rétablir un niveau suffisant d'expression de DCLK3 améliore certains symptômes moteurs. L'étude identifie in vitro sept partenaires potentiels de la protéine. Étonnamment, ces candidats ont comme caractéristique commune d'être des régulateurs connus ou présumés de la transcription. En déterminant le niveau d'expression des gènes dans les neurones du striatum en fonction de l'activité de DCLK3, les chercheurs montrent que la protéine se comporte comme un régulateur de la transcription et du remodelage de la chromatine. En accord avec ces données, ils observent une fraction de DCLK3 dans le noyau des cellules, siège de la transcription. Article rédigé par Georges Simmonds pour RT Flash CEA | | | |
| Une étude clinique réalisée par le Professeur Didier SCAVARDA, chef du service de neurochirurgie infantile, en collaboration avec le Professeur Fabrice BARTOLOMEI, chef du service d’épileptologie et de rythmologie cérébrale (Hôpital de la Timone – AP-HM et Aix-Marseille Université) vient de montrer qu'il est possible, sur certains patients épileptiques, de procéder à une déconnexion partielle efficace à 100 % de l'hémisphère cérébral lésé, sans détérioration des fonctions cognitives. De nombreux patients ayant subi des accidents vasculaires cérébraux précoces, parfois en période anténatale, développent par la suite une forme d’épilepsie réfractaire aux traitements médicamenteux. Les crises brutales et les chutes consécutives contraignent ces personnes à porter constamment un casque et sont un obstacle majeur à leur intégration sociale. La technique chirurgicale la plus couramment utilisée est alors l’hémisphérotomie. Celle-ci consiste à déconnecter totalement l’hémisphère cérébral lésé, contraignant le patient à ne vivre qu’avec une moitié de son cerveau. Il s’agit d’une intervention lourde qui a pour conséquence une aggravation du déficit de langage et bien souvent une altération de la vue. La technique mise au point par le Professeur Didier SCAVARDA et ses équipes s’appuie sur une exploration inédite du cerveau par stéréo-électro-encéphalographie (implantation d’électrodes intracérébrales). Le constat est que la zone épileptogène est bien souvent beaucoup plus localisée qu’on ne le croyait, permettant un geste chirurgical de déconnexion partielle « sur-mesure », adapté à chaque patient et ne causant pas d’aggravation des déficits visuel et langagier. Par ailleurs, l’amélioration globale de la qualité de vie et du pronostic fonctionnel est constamment rapportée par les familles. Déjà pratiquée sur six patients, la technique s’est avérée efficace à 100 %, avec une interruption des crises et une meilleure intégration sociale. Article rédigé par Georges Simmonds AP-HM | | | |
| Une équipe belge de recherche, dirigée par Ievgenia Pastushenko et Cédric Blanpain (Université Libre de Bruxelles) vient d'identifier, pour la première fois, les états de transition cellulaires survenant au cours de la progression du cancer et les sous-populations de cellules tumorales responsables de métastases dans les cancers. Ces scientifiques ont étudié des modèles de cancers de la peau et du sein présentant une transition épithélio-mésenchymateuse : dans ce processus, les cellules tumorales épithéliales (qui forment les parois du tissu) perdent leur adhérence et acquièrent de nouvelles propriétés, comme une plus grande capacité de migration métastatique et une résistance au traitement médicamenteux. Dans leur étude, les chercheurs ont découvert l'existence d'au moins 7 sous-populations cellulaires représentant différents états de transition épithélio-mésenchymateuse : de complètement épithéliales à complètement mésenchymateuses, passant par des états hybrides intermédiaires. Ils ont également démontré que toutes les populations de cellules tumorales ne sont pas fonctionnellement équivalentes et ne possèdent pas les mêmes capacités métastatiques : les cellules tumorales avec un phénotype épithélio-mésenchymateuse hybride sont les plus métastatiques et sont notamment responsables des métastases pulmonaires. Identifier ces états de transition des cellules cancéreuses et les propriétés spécifiques qu'elles acquièrent durant cette transition permet de mieux comprendre l'évolution de la maladie, la réponse aux traitements existants, et d'envisager de nouvelles stratégies pour bloquer la progression tumorale et les métastases. Article rédigé par Georges Simmonds pour RT Flash ULB | | | |
| Une équipe de recherche franco-américaine conduite par le Professeur Leboulch (CEA/Facultés de médecine de l'Université Paris-Sud) a réussi, après 20 ans de travail, à mettre au point une thérapie génique efficace contre la bêta-thalassémie. Cette maladie génétique est rare en France, avec environ 600 malades, mais elle est bien plus fréquente au sein de certaines populations dans le pourtour méditerranéen, en Asie ou encore en Afrique noire. Elle est provoquée par un défaut dans un gène qui perturbe la production de l’hémoglobine et qui se traduit par des globules rouges qui ne font plus assez bien leur travail et provoquent des anémies plus ou moins sévères, qu’il faut compenser par des transfusions. Les premiers résultats d’un essai clinique, publiés le jeudi 19 avril dans la revue New England Journal of Medicine, prouvent l’efficacité d’un traitement de thérapie génique, où les mutations qui provoquent la maladie ont été corrigées dans les cellules des malades. En 2010, un premier malade avait été soigné avec cette technique, et l’essai clinique qui vient de se dérouler sur 22 malades prouve que ce succès n’était pas un cas isolé. Douze d’entre eux n’ont plus du tout besoin de transfusion sanguine, et trois autres ont pu réduire la fréquence de ces injections de globules rouges. Avant de recevoir la dernière phase du traitement, le malade doit subir une cure de chimiothérapie, qui va venir tuer ses cellules de moelle osseuse "malades". Une fois injectées dans le sang du patient, ces cellules corrigées vont ensuite pouvoir prendre le relais et se multiplier, pour produire dans l’organisme des cellules sanguines fonctionnant normalement. Pour 12 des 22 patients traités, les cellules génétiquement corrigées qu’ils ont reçues se sont bien implantées et ont permis de produire suffisamment d’hémoglobine saine pour qu’ils n’aient plus besoin de recevoir des transfusions sanguines régulières. Les malades qui ont reçu le traitement vont être suivis durant des années, notamment pour s’assurer que la modification génétique n’augmente pas chez eux les risques de cancers. Une thérapie génique avec le même vecteur viral est également à l’essai sur une autre maladie de l’hémoglobine, la drépanocytose, où un gène défectueux produit des malformations des globules rouges. Le premier succès, sur un enfant de 13 ans, a été publié par les mêmes équipes scientifiques l’année dernière. Article rédigé par Georges Simmonds pour RT Flash Medical Xpress | | | |
| Dans la lutte contre le lupus, déroutante maladie auto immune, l'étude pivot internationale de phase III du Lupuzor vient de s'achever avec des résultats positifs : ce candidat-médicament a été efficace pour 68,8 % des patients ayant suivi la phase d'essai jusqu'au bout. Le Lupuzor est le premier traitement spécifique non immunosuppresseur contre le lupus, une maladie auto-immune handicapante qui touche 5 millions de personnes dans le monde. Ce médicament a été découvert par l'équipe de Sylviane Muller, chercheuse CNRS alors au Laboratoire d'immunopathologie et chimie thérapeutique du CNRS à Strasbourg. Débutée en décembre 2015 aux Etats-Unis, l'étude-pivot internationale de phase III du Lupuzor a été étendue ensuite en Europe et menée sur 202 patients répartis en deux groupes : le premier s'est vu administrer le Lupuzor, tandis que le deuxième recevait un placebo. L'ensemble des patients recevait également d'autres médicaments comme des stéroïdes, des antipaludéens, du méthotrexate, etc. Parmi eux, 153 ont mené l'essai clinique à son terme. Malgré ce nombre relativement limité, cette phase d'essai a permis de démontrer l'efficacité du peptide découvert par Sylviane Muller, chercheuse au CNRS : le Lupuzor, associé aux traitements de fond, s'est montré efficace pour 68,8 % des patients qui le recevaient. A noter que 59,2 % des patients recevant le placebo et les traitements de fond ont également réagi positivement, un taux particulièrement élevé. Le Lupuzor s'avère donc au moins aussi efficace que le seul traitement existant à ce jour. Mais contrairement à celui-ci, le Lupuzor n'est pas immunodépresseur, il ne diminue pas les défenses immunitaires des patients : la phase III a confirmé son innocuité exceptionnelle, aucun effet indésirable grave n'ayant été signalé. Autre résultat encourageant : le Lupuzor a démontré un taux de réponse de 61,5 % pour les patients possédant des autoanticorps anti-dsDNA (un biomarqueur reconnu pour le lupus érythémateux systémique), contre 47,3 % avec le placebo. De plus, 7,6 % des patients du groupe LupuzorTM ayant des anti-dsDNA positifs sont entrés en rémission complète (anti-dsDNA absents et absence de signes cliniques), ce qui n'a été le cas d'aucun patient du groupe placebo. Enfin, ces résultats renforcent l'intérêt potentiel de ce candidat-médicament dans le traitement d'autres maladies auto-immunes comme le syndrome de Sjögren (maladie des yeux secs) ou la maladie de Crohn (une maladie auto-immune à l'origine d'une inflammation chronique de l'intestin). Article rédigé par Georges Simmonds pour RT Flash CNRS | | | |
| Comme vient encore de le montrer la dernière édition 2018 du congrés annuel de l'ASCO, l'immunothérapie s'affirme comme la nouvelle voie royale pour combattre efficacement de nombreux cancers. Des chercheurs américains de l'Université de Pennsylvanie, en collaboration avec des scientifiques suisses de l'Université de Vaud, ont mis au point et testé un vaccin thérapeutique prometteur contre le cancer de l'ovaire. Conçu à partir des propres cellules du système immunitaire des patientes, ce vaccin d'un nouveau genre est personnalisé, indique l'étude américano-suisse qui a inclus 25 patientes dans un essai clinique pilote. Ces cellules, dites "cellules dendritiques", ont été ensuite exposées en laboratoire in vitro aux cellules c ancéreuses des patientes caractérisées par un ensemble de mutations uniques. L'objectif était ensuite de ré-injecter ces cellules dans l'organisme des participantes pour déclencher une réaction immunitaire plus large permettant aux cellules immunitaires, les lymphocytes T, de mieux identifier et tuer les cellules cancéreuses. Le vaccin a été administré toutes les trois semaines, parfois jusqu'à 6 mois, précise l'étude conduite par l'Université de Pennsylvanie, à Philadelphie, et le Centre hospitalier universitaire vaudois (CHUV), à Lausanne. "Ce vaccin semble être sûr pour les patients et suscite une large immunité anti-tumorale. Nous pensons qu'il justifie un nouveau test sur des cohortes plus larges" explique Janos L. Tanyi, professeur d'obstétrique et gynécologie à l'Université de Pennsylvanie et auteur de l'étude. "Environ la moitié des patientes vaccinées ont bien répondu et ont eu tendance à vivre beaucoup plus longtemps sans progression de la tumeur", selon l'étude qui montre un taux de survie à deux ans de 100 % chez les femmes qui ont bien répondu au vaccin contre 25 % chez celles qui n'ont pas bénéficié du vaccin. L'étude souligne le cas spécifique d'une femme de l'étude âgée de 46 ans, atteinte d'un cancer de l'ovaire de stade 4 au moment d'intégrer l'essai clinique. "Elle a reçu 28 doses de son vaccin personnalisé sur une période de deux ans et est ensuite restée sans maladie pendant cinq ans", selon les auteurs de l'étude. A plus long terme, les chercheurs espèrent améliorer l'efficacité de leur vaccin en le combinant avec d'autres traitements anti-cancéreux. Article rédigé par Georges Simmonds pour RT Flash Science Translational Medicine | | | |
| Faut-il plutôt consommer des protéines animales ou végétales ? Pour répondre à cette question, une étude a été menée par des chercheurs californiens de Loma Linda University et par des chercheurs français de lÂINRA. Elle confirme la relation entre les protéines animales et le risque accru de maladies cardiaques alors que les protéines végétales sont confirmées comme bénéfiques à la santé cardiaque. Alors que de précédentes études ont examiné les différences entre protéines animales et végétales, cette étude qui a choisi de mieux caractériser les protéines de viande et les protéines de noix et de grains ainsi que d'autres aliments suggère qu'il y a plus d'hétérogénéité dans la famille des protéines, que la catégorisation binaire « végétales » ou « animales ». L'analyse menée sur les données alimentaires et les antécédents cardiovasculaires de 81.000 participants révèle que les personnes consommant de grandes quantités de protéines animales encourent un risque accru de 60 % de maladie cardiovasculaire alors que les personnes consommant de grandes quantités de protéines de noix et de grains entiers, bénéficient dÂune réduction de 40 % de ce risque. De très nombreuses études ont déjà associé les graisses alimentaires et le risque de maladie cardiovasculaire, mais ici, il sÂagit bien des protéines qui peuvent, elles-aussi, avoir des effets indépendants importants sur le risque. Si l'ajout de noix et de graines dans le régime alimentaire protège contre les maladies cardiaques et vasculaires, alors que les viandes rouges augmentent le risque, cÂest également en raison du type de protéines. On « parle » de « mauvaises graisses » dans les viandes et de « graisses utiles » dans les noix ; ces résultats suggèrent de prendre également en compte les effets biologiques des protéines dans ces aliments. Article rédigé par Georges Simmonds pour RT Flash International Journal of Epidemiology | | | |
| Une équipe américaine dirigée par Robert Hamson, du Centre médical de l’Université Wake Forest Baptist, a mis au point une prothèse équipée de capteurs directement implantés dans le cerveau. Celle-ci a été expérimentée sur 17 patients épileptiques, volontaires, pour essayer de réactiver chez eux des souvenirs oubliés. La prothèse prend la forme de plusieurs micro-électrodes dont la tâche est de reproduire l’activité cérébrale. Une fois implantée dans la zone de l’hippocampe, elle va stimuler certains neurones pour déclencher leur activité. Cette partie du cerveau est connue pour héberger les souvenirs mais également la mémoire spatiale. Les premières observations sont pour le moins intéressantes. Dans leur publication, les chercheurs du Centre médical de l’Université Wake Forest Baptist annoncent que la mémoire des sujets de l’expérience s’est améliorée de 35 % à 37 %, des résultats probants non seulement pour la mémoire à court terme mais également sur le long terme. Pour parvenir à ce résultat, les chercheurs ont présenté plusieurs images aux patients afin qu’ils les retiennent. Un électro-encéphalogramme va ensuite suivre l’activité cérébrale au moment même où ces images sont montrées. Cela permet aux chercheurs de capturer l’instant pendant lequel une information est bel et bien enregistrée par le cortex. Une fois cette empreinte renseignée, des images identiques ont été présentées aux mêmes patients mais avec, cette fois-ci, une prothèse neuronale. En stimulant ces zones du cerveau hébergeant le souvenir, les cobayes se sont souvenus des mêmes photographies. Ils avaient en quelque sorte ravivé des souvenirs enfouis. Cette première médicale est le signe qu’il sera possible, à terme, d’utiliser les interfaces homme-machine pour améliorer les capacités cognitives du cortex cérébral. Ces travaux vont dans un premier temps servir dans le secteur de la santé mais pourraient également être utilisés dans d’autres domaines comme l’éducation ou la formation. Article rédigé par Georges Simmonds pour RT Flash IOP Science | | | |
| Décidément la nature est une source inépuisable d'inspiration pour la recherche. Cette fois, se sont les yeux du papillon Morpho qui ont inspiré les recherches d'une équipe de scientifiques américaine dirigée par Viktor Gruev (Université Urbana-Champaign dans l'Illinois) par l’Université Saint-Louis. Les yeux composés de l’animal contiennent des nanostructures optiques qui lui permettent de détecter des informations multi spectrales. Les chercheurs américains se sont inspirés de ce système de vision naturel pour mettre au point une caméra capable de fournir simultanément des images dans le visible et dans le proche infrarouge. A l’échelle nanométrique, ils ont créé un motif dont chaque pixel est composé de couches alternatives de SiO2 et TiO2. Ces deux matériaux diélectriques agissent comme des filtres qui laissent passer certaines longueurs d’ondes et en réfléchissent d’autres. En modifiant l’épaisseur et la périodicité de ces couches, il est possible de créer des pixels sensibles aux différentes longueurs d’onde. L’ensemble a été déposé sur un unique détecteur, un semi-conducteur à base de silicium. Les caméras multi spectrales sont principalement utilisées en médecine oncologique où les chirurgiens doivent éliminer toute la tumeur sans atteindre les tissus sains. Pour ça, ils ont besoin d’identifier avec précision à la fois les structures anatomiques mais aussi les marqueurs fluorescents qui ciblent les cellules cancéreuses. Les instruments utilisés actuellement sont composés de plusieurs éléments optiques comme des séparateurs de faisceaux et des lentilles relais qui permettent de séparer les longueurs d’onde visibles et infrarouges pour les envoyer sur différents détecteurs. Des variations de température peuvent affecter ces dispositifs qui ne fournissent pas toujours des images parfaitement alignées. Avec leur nouvelle structure, les scientifiques ont pu intégrer les détecteurs de lumière et les dispositifs optiques sur une même unité. Leur caméra bio-inspirée présente une précision spatiale sept fois supérieure à celle des dispositifs actuels. Elle permet une bonne détection de la fluorescence même sous un fort éclairage chirurgical. Et sa petite taille et son poids (une vingtaine de grammes) permettent d’envisager son utilisation pour des endoscopies. Article rédigé par Georges Simmonds pour RT Flash OSA | | | |
| Selon une vaste méta-analyse, reprenant 83 études réalisées sur près de 600 000 buveurs d’alcool de 19 pays, des chercheurs britanniques sont arrivés à la conclusion que la limite acceptable de consommation quotidienne d’alcool devrait être d’environ 100 grammes par semaine, soit l’équivalent d’environ un verre de vin par jour. Pour les chercheurs, 100 g constitue le niveau de consommation hebdomadaire qui représente le moins de risque de mortalité lié à l’apparition de maladies cardiovasculaires. Une consommation d’alcool trop élevée augmente aussi les risques de maladies du foie, des intestins, du cerveau (démence) et de certains cancers, rappellent les auteurs de l’étude. D’après l’article signé par une coalition de chercheurs dirigée par l’épidémiologiste britannique Angela Wood, de l’Université Cambridge, une personne âgée d’une quarantaine d’années pourrait prolonger sa vie de deux à cinq ans en réduisant sa consommation d’alcool à l’équivalent d’un verre par jour. Plus précisément, à l'âge de 40 ans, on diminue son espérance de vie de six mois en consommant de 7 à 15 verres d'alcool par semaine, d'un à deux ans avec une consommation de 15 à 25 verres, et de quatre à cinq ans avec plus de 25 verres par semaine. Article rédigé par Georges Simmonds pour RT Flash The Lancet | | | |
| Une équipe de recherche d'UCLA, en Californie, a étudié les conséquences d'un comportement sédentaire sur quelques-unes des fonctions vitales d'hommes et de femmes d'âge moyen, ainsi que de personnes âgées. Les conclusions sont édifiantes : non seulement les sujets restant trop longtemps assis accroissent leur risque de maladie cardiaque, de diabète ou de décès prématuré, mais cette sédentarité provoque de surcroît des effets néfastes sur le cerveau. La position assise aurait notamment une influence sur la mémoire puisqu'elle contribuerait à affiner considérablement le lobe temporal médian, 2 % de lobe temporal en moins par heure en position assise. Âgées de 45 à 75 ans, les personnes observées ont confié rester assises chaque jour pendant une durée variant de 3 à 15 heures. D'après l'équipe de recherche, à chaque heure passée quotidiennement en position assise correspond un désépaississement de 2 % de ce lobe temporal médian. Autrement dit, explique la biostatisticienne Prabha Siddarth, "Passer 5 heures en position assise revient à perdre 10 % d'épaisseur" par rapport à quelqu'un qui ne s'assiérait jamais. Aucun lien de corrélation n'a en revanche été trouvé entre le degré d'activité physique des personnes et l'état de leur lobe temporal. L'idée selon laquelle une quantité suffisante de sport pourrait compenser les dommages de la sédentarité est donc fausse dans le cas du cerveau. « Nous n'essayons pas de dire que l'activité physique est inutile », précise Prabha Siddarth. Il serait possible d'enrayer les effets de la position assise en prenant régulièrement des pauses, ajoute la chercheuse, pour qui la continuité de la station assise constitue le principal problème. Siddarth ajoute que de nombreuses recherches restent à mener sur le sujet, notamment sur l'intensité intellectuelle des activités menées par les personnes lorsqu'elles sont assises. Réfléchir à un problème complexe sur sa chaise de bureau ou regarder une émission de C8 dans son canapé n'a sans doute pas les mêmes effets à long terme sur le cerveau, mais cela reste à établir précisément. Article rédigé par Georges Simmonds pour RT Flash UPI | | | |
| Les immunothérapies sont des traitements qui stimulent les cellules immunitaires du patient afin qu'elles attaquent la tumeur. Elles peuvent s'avérer très efficaces contre le mélanome – une forme courante et agressive de cancer de la peau – mais ne fonctionnent pas chez tous patients, sans qu'on sache exactement pourquoi. Afin d’améliorer le taux de succès, les chercheurs tentent d'identifier les facteurs qui rendent possible une immunothérapie efficace, aussi bien que ceux qui la limitent. Le but ultime est d'ouvrir de nouvelles voies à des immunothérapies plus largement efficaces contre le mélanome, et potentiellement contre d'autres types de cancers. Certaines cellules immunitaires, appelées lymphocytes T CD8 (ou lymphocytes T cytotoxiques), sont capables de reconnaître et de tuer les cellules du mélanome, et possèdent donc la capacité d'éradiquer la tumeur. Les immunothérapies stimulent les lymphocytes T CD8 afin qu'elles attaquent plus vigoureusement la tumeur. Mais l'activité des lymphocytes T CD8 peut être inhibée par d'autres cellules immunitaires présentes dans la tumeur. En étudiant un sous-groupe de patients atteints de mélanomes, des chercheurs dirigés par Michele De Palma de l'EPFL et Daniel Speiser de l'Université de Lausanne ont identifié les coupables : des macrophages générant une résistance à un traitement de pointe, connu sous le nom d’immunothérapie anti-PD-1. « L'existence de cellules immunitaires qui soit exécutent, soit inhibent les réponses cytotoxiques immunitaires, est un élément essentiel si l'on veut limiter les effets potentiellement délétères d'une réponse immunitaire non-contrôlée – une situation susceptible de conduire à une auto-immunité ou à des dommages aux organes », dit Michele De Palma. « Le problème est que les tumeurs détournent ces mécanismes de régulation à leur propre profit, afin de pouvoir croître largement hors du contrôle du système immunitaire ». En analysant des échantillons obtenus sur des tumeurs de patients, Daniel Speiser et ses collègues ont découvert que les lymphocytes T CD8 diffusent des signaux qui attirent indirectement les marcophages vers les tumeurs, établissant ainsi ce qu'ils appellent une « liaison dangereuse » dans le mélanome. « C'est une sorte de cercle vicieux », explique Speiser. « Le bon côté de la médaille, c'est que les lymphocytes T CD8 sont activés par certains antigènes tumoraux et génèrent une réponse immunitaire potentiellement bénéfique contre la tumeur. Le mauvais côté est que, lorsqu'ils sont activés, les lymphocytes T CD8 provoquent la production d'une protéine dans le mélanome, appelée CSF1, qui attire les macrophages ». De fait, les mélanomes qui attirent beaucoup de lymphocytes T CD8 finissent souvent par contenir de nombreux macrophages, ce qui peut affaiblir l'immunité de l'immunothérapie PD-1. Un fois recrutés en masse vers la tumeur, les macrophages suppriment les lymphocytes T CD8 et réduisent la réponse immunitaire tumorale. Mais lorsque les scientifiques ont utilisé un médicament destiné à éliminer les macrophages dans les modèles de mélanome expérimentaux, ils ont constaté que l'efficacité de l'immunothérapie à inhibiteurs du checkpoint PD-1 était grandement améliorée. Ces découvertes plaident en faveur de tests cliniques d'agents capables de désorganiser les macrophages en combinaison avec l'immunothérapie PD-1 chez des patients dont les mélanomes contiennent un nombre élevé de lymphocytes T CD8 et de macrophages. Article rédigé par Georges Simmonds pour RT Flash EPFL | | | |
| Pour rester en forme, l'OMS, recommande de pratiquer au moins 150 minutes par semaine d'activité physique modérée à vigoureuse pendant des périodes de 10 minutes ou plus. Mais ce modèle n'est pas toujours facile à observer par les personnes âgées. Heureusement, une étude anglaise publiée dans le Journal Britannique de la Médecine Sportive vient de montrer que, pour les seniors, c'est bien le volume global d’activité qui est le plus important, et pas la fréquence ou l’intensité des exercices. Ainsi, il n’est pas nécessaire, en particulier à l’âge avancé, de pratiquer l’exercice sur des séances de 10 minutes ou plus, voire de 30 minutes par jour, comme le stipulent les recommandations. L'étude montre en effet qu'une simple pratique de quelques minutes d'exercices modérés est déjà associée à une forte réduction du risque de décès chez les hommes âgés. L'important, selon ces recherches, serait en fait d'arriver à cumuler au moins 2 h 30 d'activités physiques hebdmadaires. Pour démontrer leur théorie, les chercheurs ont analysé les données de 7.735 participants à la la British Regional Heart Study et âgés de 40 à 59 ans, au départ de l’étude, dans les années 1978-80. En 2010-2012, soit 30 années plus tard, les 3.137 participants survivants ont été invités à subir un examen médical comprenant un examen physique, des questions sur leur mode de vie, leur sommeil et l’existence d’un diagnostic de maladie cardiaque. Ces recherches très rigoureuses montrent que chaque tranche de 30 minutes supplémentaires d'activité quotidienne, même de faible intensité, est associée à une réduction de 17 % du risque de décès. Cette association persiste même après la prise en compte des facteurs de mode de vie dont le temps de sédentarité. Article rédigé par Georges Simmonds pour RT Flash BJSM | | | |
| Des chercheurs de l’Université du Michigan (États-Unis) ont montré que le fait d'évoluer dans des endroits où la puissance de l’éclairage est insuffisante affecterait notre mémoire et notre capacité d’apprentissage. Dans le cadre de ces recherches, les scientifiques ont travaillé sur une population de rats musqués. Selon les résultats, les individus soumis à des lumières de faible intensité ont vu baisser de 30 % la capacité de leur hippocampe, cette zone du cerveau assurant un rôle central dans la mémoire et la navigation spatiale. En effet, il s’avère que les rats se sont montrés moins performants dans ces domaines après cette « sous-exposition », et ce même concernant des tâches pour lesquelles ces derniers avaient reçu un entraînement. A l’opposé, les rats ayant reçu suffisamment de lumière, c’est-à-dire à une intensité plus forte, ont vu leurs capacités cognitives s’améliorer. Par ailleurs, les scientifiques ont tenté d’exposer à des lumières fortes les rats préalablement sous-exposés, et ceux-ci ont retrouvé leurs capacités originelles. Ceci signifie donc que les effets néfastes d’un éclairage trop insuffisant sont réversibles. Selon les chercheurs, le manque d’intensité au niveau de l’éclairage aurait pour effet de ralentir la production d’orexine, un neurotransmetteur du cerveau situé dans l’hypothalamus. Ce dernier assure le maintien de l’éveil et l’inhibition du sommeil paradoxal, et son dysfonctionnement peut entraîner la narcolepsie. Ainsi, la prochaine étape pour les chercheurs sera de comprendre s’il est possible de remplacer l’exposition à un éclairage intense directement par des injections d’orexine. Dans le cas où ces injections s’avéreraient efficaces, une des applications pourrait concerner les personnes aveugles ou malvoyantes, chez qui il serait possible de développer de meilleures facultés de mémorisation et d’orientation dans l’espace. Article rédigé par Georges Simmonds pour RT Flash Science Daily | | | |
| Dans le cancer de la prostate, quand il n’est pas accessible à un traitement curatif, chirurgical ou en radiothérapie, et qu’il n’est pas encore métastasé, le traitement repose sur la castration chirurgicale ou chimique. Certains malades sont cependant résistants, secondairement ou d’emblée, mais l’objectif est de retarder l’apparition de métastases. Chez les hommes souffrant d'un cancer de la prostate non métastatique, mais résistant à la castration, l’apalutamide réduit de 72 % le risque de métastases ou de décès. Ces données suggèrent que l’apalutamide pourrait être un nouveau standard de traitement chez les hommes résistant à la castration et à haut risque de métastases, métastases qui sont les principales pourvoyeuses de souffrances et de réduction de l’espérance de vie. L’apalutamide est un inhibiteur compétitif de nouvelle génération qui se fixe directement sur le récepteur aux androgènes. Il est en cours de développement pour le traitement des hommes atteints de cancer de la prostate non encore métastasé. Il empêche la liaison des androgènes aux récepteurs aux androgènes sur les cellules cancéreuses et l’activation de ces cellules (transcription de l'ADN médiée par le récepteur androgène). La médiane de survie sans métastase fait plus que doubler puisqu’elle est de 40,5 mois dans le bras apalutamide contre 16,2 mois dans le bras placebo (HR, 0,28, IC 95%, 0,23-0,35, P <0,0001). Sur la base de ces données, la FDA a accordé un examen prioritaire à l'apalutamide pour prescription dans ce contexte. L'essai SPARTAN a évalué l'innocuité et l'efficacité de l'apalutamide par rapport au placebo chez 1207 patients atteints de cancer de la prostate à haut risque, résistant à la castration, et non encore métastatique : tous ces malades avaient un taux d'antigène prostatique spécifique en augmentation rapide, malgré une suppression androgénique en continu. Les malades devaient donc avoir un temps de doublement du PSA ≤ 10 mois, car des données antérieures ont montré que ce sont les patients les plus à risque de développer des métastases et de mourir. 80 % des hommes sous placebo ayant progressé et 56 % des patients sous apalutamide ont été traités ultérieurement pour leur cancer de la prostate. Les chercheurs ont noté que la survie sans progression est plus longue chez les patients traités par apalutamide. « Les résultats de cette étude suggèrent qu'il pourrait enfin y avoir un traitement prometteur pour prolonger leur qualité et leur espérance de vie », a déclaré le Professeur Sumanta K. Pal. Article rédigé par Georges Simmonds pour RT Flash NEJM | | | |
| On sait depuis quelques années que l’apparition de métastases n’est pas liée uniquement aux propriétés intrinsèques des cellules métastasiques, mais aussi aux conditions environnementales, et notamment aux pressions mécaniques qui s’exercent sur elles. Des travaux ont par exemple déjà montré que ces cellules s’adaptent à la rigidité d’un tissu pour mieux l’envahir. Cette fois, une équipe Inserm vient de prouver que leur dissémination est associée à la force du flux sanguin. Pour étudier ce phénomène, les chercheurs ont travaillé in vivo avec des embryons de poisson zèbre. "Ce modèle est simple et possède une vascularisation stéréotypée, il permet d’injecter des cellules métastasiques et d’observer par microscopie leur devenir dans l’espace et dans le temps. Il permet également de modifier le flux sanguin en injectant différentes substances qui régulent l’activité cardiaque", détaille Jacky Goetz, responsable de ces travaux. Les chercheurs ont montré que la vitesse de déplacement des cellules métastasiques ralentit au niveau des capillaires, des zones fortement ramifiées avec des virages, des bifurcations, où le flux sanguin est lui-même ralenti. Là, les cellules s’arrêtent préférentiellement à certains endroits que les chercheurs ont appelé des points chauds (hotspots). Ils ont en outre observé qu’il est possible de déplacer ces hotspots en jouant sur la force du flux sanguin. Une observation cohérente avec le fait que, chez les patients, les métastases apparaissent préférentiellement dans des organes présentant un réseau vasculaire très ramifié et complexe comme les poumons, le foie ou encore le cerveau. Mais pour être agressive, la cellule ne doit pas seulement s’arrêter : elle doit aussi se lier à la paroi vasculaire et la traverser. Là encore, la force du flux joue un rôle déterminant. L'étude montre qu'en modifiant ce flux, on constate qu’une certaine vitesse de flux doit être respectée pour permettre l’adhésion des cellules métastasiques aux cellules endothéliales. Cette adhésion implique une protéine exprimée par les cellules métastasiques, l’integrine ß1. Des expériences conduites chez la souris ont montré que si elles en sont dépourvues, elles restent mobiles dans la circulation. Enfin, une fois liées à la paroi, les cellules doivent être expulsées du système vasculaire. Ce phénomène s’appelle l’extravasation. Là encore, il faut conserver une certaine force du flux afin d’obtenir un remodelage des cellules endothéliales autour de la cellule tumorale, nécessaire à l’expulsion. "Si le flux est trop faible, la sortie n’a pas lieu et les métastases ne peuvent se former", explique Jacky Goetz. Dans un second temps, en collaboration avec une équipe allemande, les chercheurs ont confirmé l’association entre débit sanguin et régions métastasiques dans le cerveau d’une centaine de patients atteints de différents cancers. Pour cela, ils ont utilisé la tomodensitométrie afin de réaliser une cartographie du degré de perfusion dans tout le cerveau, renseignant sur la force du débit sanguin. Ils ont alors constaté une corrélation entre la force de celui-ci et la localisation préférentielle de métastases repérée par IRM. Dès lors, ces travaux pourraient-ils permettre de trouver des solutions pour réduire le risque de métastase en cas de cancer ? "Il serait malheureusement trop complexe de jouer sur la force du flux sanguin pour limiter ce risque", reconnaît Jacky Goetz. "En revanche, nous nous intéressons de près à l’étape de remodelage de l’endothélium au moment de l’extravasation des cellules tumorales. Des traitements existent pour limiter la croissance des vaisseaux en cas de cancer, afin d’asphyxier la tumeur. Et ils altèrent ce remodelage. Par conséquent nous regardons actuellement s’ils peuvent inhiber l’étape d’extravasation. A priori, cela réduirait le risque d’apparition de métastases", espère-t-il. Article rédigé par Georges Simmonds pour RT Flash Inserm | | | |
| L'ostéoporose cortisonique est la plus fréquente des complications des traitements par corticoïdes de plus de 3 mois, et la plus fréquente des ostéoporoses chez la personne jeune. Le risque de fractures de fragilité osseuse sous corticoïdes est estimé à 5 % par an si rien n’est fait pour les prévenir. Dans une nouvelle étude, un anticorps monoclonal spécifique de l’os, le denosumab, qui est un anti-RANK anti-ostéoporotique, est équivalent voire supérieur au traitement de référence, le risédronate, qui est un bisphosphonate déjà ancien et peu puissant. A 12 mois, le denosumab, une injection sous-cutanée à 60 mg tous les 6 mois, est supérieur au risedronate, un comprimé à 5 mg par jour. Chaque groupe de malades prenait en même temps un placebo de l’autre traitement pour rendre la comparaison plus fiable. La densité minérale osseuse à la colonne lombaire, au lieu de baisser sous corticoïde, augmente de 4,4 % sous denosumab versus 2,3 % sous risedronate chez les personnes sous traitement corticoïde chronique. Chez celles qui ont initié le traitement corticoïde au cours des 3 mois, les mêmes mesures sont respectivement de 3,8 % versus 0,8 %. Cette étude réalisée dans plusieurs centres en Europe a testé avec de bonnes garanties de méthodologie (tirage au sort et double aveugle) l’intérêt d’une molécule anti-ostéoporotique, le denosumab, qui est un anticorps monoclonal anti-RANK, c’est-à-dire qu’il bloque spécifiquement les cellules qui sont chargées de la résorption de l’os (les ostéoclastes). Cette étude a été réalisée sur 2 ans dans une large population de personnes à risque d’ostéoporose et traitées par des corticoïdes à une dose équivalente de 7,5 mg par jour de prednisone pendant plus, ou moins, de 3 mois. Les résultats qui sont présentés sont les mesures à 12 mois de la densitométrie osseuse, mesure qui est fortement corrélée à la fracture de fragilité osseuse. Il faut attendre les résultats définitifs à 24 mois pour vérifier si cette amélioration de la densité osseuse se traduit également par une diminution du nombre de fractures, mais cela fait peu de doute. Article rédigé par Georges Simmonds pour RT Flash The Lancet | | | |
| Dans le cadre du "Cancer Genome Atlas", l'un des plus grands projets internationaux de recherche sur le cancer, des chercheurs ont réussi à déchiffrer le code génétique de 33 types différents de tumeurs. Grâce aux données recueillies sur 11 000 patients, les experts ont fourni une feuille de route pour définir un traitement plus efficace et développer de nouveaux médicaments. Le résultat de leur recherche est étonnant : les tumeurs présentes dans les différentes parties du corps, autrefois traitées comme des maladies distinctes, ont des similitudes moléculaires qui pourraient donc les rendre vulnérables aux médicaments déjà sur le marché. Ainsi, les tumeurs des cellules qui tapissent le poumon, la vessie et la tête, autrefois traitées comme des maladies distinctes, présentent en fait des caractéristiques communes : "En étudiant leurs caractéristiques moléculaires, nous savons maintenant que de tels cancers sont étroitement liés", souligne le Docteur Li Ding, l'un des principaux auteurs du projet. Au-delà de simplement définir le cancer par sa localisation, comme le sein ou la peau, cette recherche va permettre de reclasser les types de cancers existants. La découverte de cette composition moléculaire pourrait donc conduire à des "changements radicaux" dans la façon dont les médicaments sont choisis pour chaque patient. Les chercheurs ont aussi constaté qu'environ 8 % des mutations cancérigènes étaient héritées de l'ADN parental, et non causées par les rayons du soleil ou le tabagisme. D'après la Fondation contre le Cancer, ceux reconnus comme héréditaires sont le cancer du sein, de l'ovaire, de l'intestin, mais aussi le mélanome (une forme de cancer de la peau) et certains cancers de la prostate. Article rédigé par Georges Simmonds pour RT Flash
Le Vif | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | Selon deux études convergentes publiées dans la revue Nature, le changement climatique en cours se traduit par un affaiblissement de la circulation de ces courants connus sous l'acronyme d'AMOC (circulation méridienne de retournement de l'Atlantique). Cet affaiblissement des courants est le fruit de la fonte de la banquise, des glaciers et de plates-formes glaciaires, qui libèrent de l'eau douce, moins dense que l'eau salée, dans l'Atlantique Nord. "L'eau douce affaiblit l'AMOC car elle empêche les eaux de devenir assez denses pour couler", explique à l'AFP David Thornalley, de l'University College London, co-auteur d'une des études. Cette circulation permanente des eaux marines consiste en une remontée des eaux chaudes des zones tropicales de l'Atlantique vers le Nord grâce au Gulf Stream, réchauffant au passage l'Europe de l'Ouest. Une fois dans l'Atlantique Nord, ces eaux refroidissent, deviennent plus denses et plus lourdes et coulent sous des eaux plus chaudes pour repartir vers le sud. "Si le système continue de faiblir, cela pourrait perturber les conditions météorologiques depuis les États-Unis et l'Europe jusqu'au Sahel et provoquer une hausse plus rapide du niveau des mers sur la côte est des États-Unis", avertit le Woods Hole Oceanographic Institution, qui a participé aux recherches. Ces courants marins transportent aussi d'une zone à l'autre des nutriments, de l'oxygène, des larves de coraux ou encore de poissons. Ils contribuent également à la capacité des océans à absorber et à stocker du dioxyde de carbone (CO2), principal responsable du réchauffement climatique. Dans la première étude, David Thornalley et son équipe ont étudié les grains de sable déposés par les courants sur les fonds marins au fil du temps. Plus les grains de sable retrouvés dans les sédiments étaient gros, plus forts devaient être les courants qui les ont transportés. Les résultats révèlent que l'AMOC a été relativement stable entre l'an 400 et 1850 et a commencé à s'affaiblir au début de l'ère industrielle. La seconde étude s'est penchée sur les températures de la surface de l'océan et en déduit que l'AMOC a décliné d'environ 15 % au cours des cinquante dernières années, probablement à cause du changement climatique dû à des activités humaines même s'il est difficile de connaître avec certitude le rôle joué par le réchauffement climatique. "Le fait que l'AMOC soit resté faible et se soit affaibli au cours du 20e siècle, avec un déclin notable à partir de 1950 environ, est très certainement lié à des facteurs humains", estime David Thornalley. Les études ne disent pas si ce système de courants va continuer à perdre de sa puissance. Si c'est le cas, les conséquences possibles seraient plus de tempêtes l'hiver en Europe ou un déplacement vers le Sud de la ceinture tropicale de pluies. Article rédigé par Georges Simmonds pour RT Flash Nature | | ^ Haut | |
|
| | | Chaque année, 9 millions de tonnes de déchets plastiques non traités sont rejetés dans les océans, ce qui entraîne une importante pollution planétaire et perturbe de plus en plus les écosystèmes marins. En 2016, en analysant des échantillons de sol d’une usine de recyclage de plastique, une équipe de biologistes japonais de l’Université de Kyoto a découvert l’existence d’une bactérie nommée « Ideonella sakaiensis ». La particularité de cette dernière réside dans le fait qu’elle ait évolué afin de pouvoir dégrader et utiliser le plastique PET (téréphtalate d’éthylène) comme source de carbone et d’énergie. En étudiant Ideonella sakaiensis et ses mécanismes cellulaires, les scientifiques ont accidentellement synthétisé une nouvelle enzyme bien plus performante que celle utilisée par la bactérie et qui pourrait offrir une véritable solution à la déferlante plastique actuelle. Comme le souligne John McGreehan, biologiste structural à l’Université de Portsmouth (Royaume-Uni), « Cette découverte non anticipée suggère qu’il est possible d’améliorer davantage ces enzymes, nous rapprochant d’une solution de recyclage pour chaque montagne de déchets plastiques ». L'équipe de McGreehan, incluant des chercheurs de l’US Department of Energy’s National Renewable Energy Laboratory (NREL), ont synthétisé la nouvelle enzyme en étudiant la structure cristalline de la PETase – l’enzyme permettant à Ideonella sakaiensis de dissoudre le plastique PET. Là où la PETase de Ideonella sakaiensis permet une dégradation en quelques semaines maximum, la nouvelle PETase améliorée ramène ce délai à quelques jours. « Après seulement 96h, nous pouvons clairement voir au microscope électronique que la PETase dégrade le PET ; et nous la testons avec de véritables déchets plastiques, tels que ceux trouvés dans les océans ou les décharges » indique le biologiste Bryon Donohoe (NREL). Les auteurs ont tenté de modifier la PETase pour la rapprocher du mécanisme enzymatique de la cutinase – une enzyme dégradant la cutine, un biopolymère lipidique présent chez les plantes et dont la structure ressemble à celle du PET. En raccourcissant les liaisons entre les sites actifs de la PETase, ils se sont aperçus que la catalyse du plastique obtenu était bien plus performante que prévu. Un important travail attend encore les scientifiques avant que cette nouvelle enzyme puisse être produite en masse et permette véritablement d’offrir une méthode de recyclage à grande échelle. Cependant, maintenant que l’on connaît son fonctionnement, son utilisation n’est plus qu’une question de temps. Article rédigé par Georges Simmonds pour RT Flash Trust My Science | | | |
| On le sait, le stockage efficace, à grande échelle, pour un coût raisonnable de l’énergie produite par des éoliennes et des panneaux solaires représente encore un sérieux obstacle au développement des énergies vertes. Mais cette situation va sans doute changer : Kemwatt a présenté le premier prototype industriel de batterie, baptisé « Redox Flow ». C’est la première batterie organique non corrosive de dimension industrielle. Elle a nécessité deux années de développement et ouvre la voie à des solutions de stockage simples, fiables, peu coûteuses et durables. Cette innovation apporte donc une réponse majeure pour l’expansion des énergies renouvelables qui butaient jusqu’alors sur cette impossibilité de stockage de l’énergie. A terme, cela pourrait permettre d’électrifier des micro-réseaux, comme des villages africains non électrifiés mais très ensoleillés. 10KWh ainsi stockés correspondent à la consommation d’une lampe allumée pendant 10 jours sans interruption. En plus d’être innovante technologiquement, la batterie développée par Kemwatt est une solution durable. Stocker et restituer de grandes quantités d’énergie plus proprement est en effet le défi des énergies renouvelables, particulièrement aujourd’hui où elles deviennent compétitives face aux énergies fossiles et nucléaires. La batterie « Redox Flow » apporte une solution majeure en stockant proprement de nombreuses heures de production d’énergie. En général, le stockage dans ce type de batterie se fait de manière chimique, avec des matières corrosives baignant en milieu acide, générateur de fuites mettant à mal la fiabilité du système, sa durée de vie, sa sécurité et l’environnement. Mais là où la batterie Redox Flow Organique innove, c’est qu’elle résout ce problème grâce à une chimie basique, c’est dire neutre et non-corrosive, utilisant des molécules naturelles, avec des électrolytes biodégradables et recyclables, permettant des applications à grande échelle, qu’elles soient industrielles ou non. Et selon François Huber, le président de Kemwatt, ces systèmes « apporteront une solution énergétique propre et moderne à plus d’un milliard de personnes qui n’ont pas accès à l’électricité ». Avec sa technologie brevetée, Kemwatt vise le marché mondial du stockage stationnaire de l’énergie. Kemwatt a reçu plusieurs récompenses dont le 1er prix mondial de l’innovation dans la catégorie stockage d’Energie, le 6 avril dernier. L’entreprise devrait déployer commercialement son offre sur à partir de 2019. Article rédigé par Georges Simmonds pour RT Flash RCF | | | |
| L'essor du véhicule électrique va poser des problèmes croissants : nécessité d'ouvrir de nouvelles centrales électriques, recours aux énergies fossiles pour faire face à la demande, risques de coupure lors des pics de consommation. Pour Mitsubishi : c'est une erreur ! Intégrée au sein de l’Alliance Renault-Nissan-Mitsubishi depuis octobre 2016, la marque aux trois diamants annonce une stratégie d’électrification ambitieuse qui va même au-delà de l’automobile. Pour commencer, tous les modèles de sa gamme auront une déclinaison électrifiée, que ce soit du 100 % électrique (pour les petits modèles) ou de l’hybride rechargeable, comme l’Outlander PHEV, pour les gros SUV. Pour assumer pleinement ce nouveau rôle, une nouvelle version sera commercialisée début 2019. Avec un nouveau moteur thermique essence 2.4 à cycle Atkinson, une batterie de capacité supérieure et des moteurs électriques plus puissants, il affichera des performances à la hausse, une autonomie électrique plus importante (sans doute 60 km) et devrait rester, selon Mitsubishi, en dessous des 50 g/km de CO2. Mitsubishi part d’un constat d’ailleurs valable pour tous les véhicules : ils ne roulent pas 95 % du temps. Si pendant cette durée un véhicule électrique est branché sur un réseau compatible "smart grid", c’est-à-dire qui peut fournir du courant au véhicule mais aussi en récupérer, le véhicule en question fonctionne comme une unité de stockage et de distribution. 10 000 Outlander PHEV connectés au réseau représentent ainsi une puissance de 1 GW, soit l’équivalent d’un petit réacteur nucléaire, utilisable lors des pics de consommation par exemple. La voiture électrique est aussi un moyen efficace pour stocker l’énergie produite par les sources renouvelables (éolien, solaire…), par nature intermittentes. Grâce au rachat de l’énergie stockée dans les batteries, cela peut même être une source de revenus plus rentable qu’une batterie à poste fixe puisque l’automobile ne nécessite pas, dans ce cas précis, d’investissement supplémentaire. Mais on peut aussi utiliser plus simplement son Outlander pour alimenter sa propre maison ou des appareils électriques. Tous les modèles disposent en effet d’une prise AC 230 V-1500 W. Mitsubishi précise qu’avec le plein d’essence et une batterie chargée on dispose de dix jours d’autonomie électrique avec une consommation moyenne de 100 W. Article rédigé par Georges Simmonds pour RT Flash L'Argus | | | |
| Une étude du Crigen (Engie lab) a comparé les performances de dix solutions d’énergie EnR et conventionnelles en vue d’atteindre 20 % de moins que le niveau RT 2012. Les calculs ont été effectués sur des cas concrets (un R+2 de 18 logements et un R+4 de 34 logements) dans trois zones climatiques différentes, du Sud au Nord de la France. Les résultats sont sans appel : le solaire thermique permet d'économiser de 51 % à 68 % sur l'eau chaude sanitaire (ECS), ce qui représente 18 kWh de consommation en énergie primaire en moyenne sur la France. Face aux autres EnR, le solaire thermique s’impose globalement comme la seule solution capable d’abaisser de 20 % (soit 40 kWh/m2 par an) la consommation en énergie primaire, sans travaux d’isolation supplémentaires. En considérant les coûts sur 20 ans, la chaleur solaire revient moins chère que les solutions traditionnelles, voire que d’autres solutions faisant appel à des énergies renouvelables. Elle se positionne donc comme la meilleure des énergies les plus rentables sur le long terme. En comparaison avec d’autres solutions conventionnelles, le solaire s’affirme aussi comme la plus rentable du marché en rénovation, grâce notamment au soutien du Fonds chaleur. Une étude I-Care & Consult démontre également que le solaire thermique s’impose aussi dans la durée, comme sur la compétitivité. Il semble que, dès à présent, cette solution est rentable grâce à la taxe carbone. En effet, sur 20 ans, en intégrant les coûts d’installation, d’exploitation et de maintenance, elle s’avère moins chère qu’une solution classique fonctionnant à 100 % au gaz ou au fioul. Article rédigé par Georges Simmonds pour RT Flash Batirama | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Aujourd’hui, la réalité virtuelle ou augmentée s’appuie principalement sur des technologies de détection optique des parties mobiles du corps pour l’interaction avec des objets virtuels. Cependant, elle nécessite souvent des dispositifs encombrants et sa résolution n’est pas suffisante pour des mouvements fins comme ceux des doigts par rapport à la paume d’une main par exemple. Pour aller au-delà, des chercheurs de laboratoires allemands et autrichiens, dans le cadre du programme européen SMART, se sont attachés à trouver une solution qui s’appuie sur la sensibilité magnétique et qui colle littéralement à la peau. Le concept et sa mise en œuvre pourraient révolutionner l’emploi de la réalité augmentée pour de nombreuses applications allant du suivi de mouvement en robotique à la médecine régénérative ou aux jeux vidéos. Les capteurs sont intégrés entre deux feuillets d’une peau électronique ultrafine. Cette peau est constituée de deux films ultraminces (1,7 µm chacun) de polyimide. Extensible, souple et imprimable, ce film peut s’appliquer sur n’importe quelle partie de la main sans gêne importante pour le porteur. Il peut aussi être intégré à des matériaux souples comme les textiles et il supporte une température maximale de 344°C. Si les chercheurs ont assez rapidement réussi à réaliser un capteur magnétosensible qui s’intégrait à leur film et qui permettait de détecter les objets environnants, ils ont eu plus de mal à passer l’obstacle du positionnement spatial. Mais ils y sont finalement parvenus et ont démontré la faisabilité grâce à deux expériences décrites dans un article paru dans Science Advances de fin janvier 2018 où leur dispositif permet d’interagir avec des objets virtuels qui ne sont pas dans la ligne visuelle directe du manipulateur. Dans la première expérience, un aimant permanent est fixé au bout du doigt d’une personne. Sur son autre main, un serre-poignet élastique contient le dispositif des chercheurs muni d’un capteur 2D. Quand le bout du doigt s’approche du serre-poignet, le capteur peut déterminer l’angle d’approche, cet angle est converti en un caractère prédéfini (un chiffre par exemple). Les différentes positions du doigt procurent donc différents caractères et peuvent être transformées en un clavier activable à distance. La deuxième expérience a démontré la possibilité de régler l’intensité d’une ampoule virtuelle via une manipulation sans contact. La peau électronique a été placée dans la paume de la main. Un aimant permanent fait office de bouton virtuel. Quand la main fait un mouvement, comme pour faire tourner un variateur dans un sens ou dans l’autre, le capteur transforme le changement dans les champs magnétiques en information pour augmenter ou diminuer l’intensité lumineuse de l’ampoule virtuelle. Article rédigé par Georges Simmonds pour RT Flash Techniques de l'Ingénieur | | | |
| C'est une grosse boîte à roulettes qui arrive à hauteur des genoux, elle est équipée d'une trappe pour pouvoir y mettre ses courses. Jusque-là rien d'exceptionnel... sauf qu'il s'agit d'un robot capable de suivre un client à la trace à travers tout le centre commercial. "Pour qu'il me suive comme un petit chien c'est très simple", explique Vincent Talon, directeur de Twinswheel, la star-up qui a créé le robot. "Il suffit d'appuyer sur un bouton. La caméra 3D et le radar font une image de vous et le robot reconnaît votre silhouette et votre forme puis il vous suit à une distance de 5 à 10 mètres". Pour l'instant, il s'agit uniquement d'une expérimentation le temps d'un week-end : "On a trouvé intéressant de faire un test dans le centre commercial", explique Sarah Zerouali, directrice d'Italie Deux. "C'est un vrai service que l'on pourrait proposer demain. Le robot est très interagissant, il pourrait aider notamment les personnes âgées". Après ce week-end de test, la directrice envisage de retenter l'expérience prochainement. Cette machine fait ses premiers pas en France, mais à l'étranger elle est déjà utilisée à des fins professionnelles. On retrouve notamment le petit robot à la poste Suisse et dans certaines usines Nissan aux États-Unis. Twinswheel a lancé le projet de ce robot autonome il y a seulement deux ans, en 2016, il n'y a donc pas encore de production à grande échelle. Cela se ressent sur le prix de la machine : comptez entre 45 000 et 65 000 euros pour l'instant. Mais ce coût devrait drastiquement baisser avec le temps. À terme, la start-up espère pouvoir commercialiser le robot pour environ 10 000 euros. Twinswheel travaille toujours sur sa machine et de nombreuses améliorations sont prévues dans les mois qui viennent. Cet été, la version améliorée du robot devrait permettre de le commander par la voix. Il sera aussi capable de reconnaître certains gestes de la main, par exemple un geste pour lui montrer qu'il doit attendre à un endroit précis. Article rédigé par Georges Simmonds pour RT Flash France Bleu | | ^ Haut | |
|
| Information et Communication | |
| | | Le premier hôpital intelligent doté de l’intelligence artificielle a ouvert ses portes à Guangzhou. Selon la direction du deuxième hôpital général provincial du Guangdong, « l’intelligence artificielle peut aider les patients en leur donnant des recommandations, en prenant rendez-vous et en effectuant des paiements via le compte WeChat de l’établissement ». De plus, grâce à la reconnaissance faciale sur WeChat, les patients peuvent établir leur profil médical, ce qui permet aux médecins d’accéder à toutes les informations, facilitant le diagnostic, qui est soumis à un système intelligent venant en soutien aux médecins, afin de les aider dans la prescription de médicaments. Selon le directeur adjoint de l’hôpital, Li Guanming, l’IA réduit de 50 % le temps de passage des patients en consultation et permet de diagnostiquer environ 90 % des maladies traitées dans les cliniques communautaires. En effet, en 2017, un logiciel basé sur l’Intelligence artificielle a été créé par des scientifiques chinois, contenant des modèles de diagnostics concernant plus de 30 maladies telles que la tuberculose et la dépression. Le logiciel a été intégré dans un robot-médecin, qui a la capacité de diagnostiquer des milliers de maladies possibles, avec une marge d’erreur faible. Ainsi, sur la base des tests réalisés dans plusieurs hôpitaux, le taux de diagnostics corrects du robot-médecin est 20 % supérieur à celui des vrais médecins. Cela s’explique par le fait que le robot-médecin assimile de manière constante un flux important d’informations, tirant des leçons des expériences et des diagnostics réalisés. D’autant plus que le robot possède une base de données contenant des millions de cas cliniques. « Il est conçu pour être généraliste. Toutes les semaines ou toutes les deux semaines, il peut apprendre à diagnostiquer une nouvelle maladie », a indiqué Peng Shaoliang, directeur adjoint du Centre national du super-calcul de Changsha. « Ce robot-médecin doté d’intelligence artificielle aidera les médecins plus qu’il ne les remplacera », a indiqué Kang Xixiong, directeur du département de diagnostics de laboratoire clinique, de l’Université médicale de la Capitale, ajoutant que « pour les établissements médicaux chinois, notamment ceux des régions défavorisées, le médecin IA sera un bon assistant ». L'objectif du conseil scientifique chinois est qu'à l'horizon 2020, les grands centres hospitaliers du pays disposent d'outils d'IA capables de diagnostiquer de manière exacte 95 % des pathologies courantes, avec moins de 1 % de "faux négatif" et moins de 5 % de "faux positifs". Article rédigé par Georges Simmonds pour RT Flash
OpenGov | | | |
| La Commission européenne a proposé de remplacer d'ici deux ans les cartes d'identité encore sous format papier par des cartes munies d'une puce informatique, sur laquelle devront figurer d'ici maximum cinq ans les empreintes digitales du titulaire. Sur les 26 Etats membres de l'Union qui délivrent des cartes d'identité à leurs ressortissants, la détention de ce document n'est obligatoire que dans 15 d'entre eux. On estime que 80 millions d'Européens sont actuellement titulaires d'une carte non lisible par machine et dépourvue d'identifiants biométriques, comme c'est le cas par exemple en Italie. Or, améliorer les éléments de sécurité des cartes d'identité permettrait d'endiguer l'utilisation de documents frauduleux dont les terroristes et les criminels peuvent se servir pour entrer dans l'UE à partir d'un pays tiers, a souligné le commissaire aux Affaires intérieures, Dimitris Avramopoulos. La Commission veut rendre les données biométriques obligatoires pour les pays qui délivrent des cartes d'identité, de sorte que celles des citoyens de l'UE (âgés de plus de 12 ans) et les titres de séjour des membres de la famille ressortissants de pays tiers comportent des empreintes digitales et des images faciales qui seront stockées sur une puce intégrée dans les documents. Les nouvelles règles prévoient un retrait des cartes non conformes soit à la date de leur expiration soit, au plus tard, dans un délai de cinq ans, ou de seulement deux ans pour les cartes moins sécurisées (c'est-à-dire non lisibles par machine). En Belgique, le ministre de l'Intérieur Jan Jambon a annoncé récemment un projet prévoyant qu'à partir de l'an prochain, la puce électronique de chaque carte d'identité ou carte d'étranger contienne une image numérisée des empreintes de deux doigts. Ces données ne seraient conservées que le temps nécessaire à la fabrication de la carte d'identité et seraient retirées de la banque de données après trois mois maximum. Mais la Commission pour la protection de la vie privée a rendu un avis négatif sur ce projet. La proposition de l'exécutif européen devrait donner de l'eau au moulin de M. Jambon. Cette proposition va plus loin que les cartes d'identité. Dans le but de tarir les sources de financement des terroristes et criminels, la Commission avance une nouvelle directive qui prévoira un accès direct - mais au cas par cas - des autorités répressives et des bureaux de recouvrement aux informations bancaires des registres nationaux, afin d'identifier les banques dans lesquelles un suspect de terrorisme ou de criminalité grave est titulaire d'un ou de plusieurs comptes. Elle prévoit aussi une coopération plus étroite entre les services répressifs et les cellules nationales de renseignement financier. Article rédigé par Georges Simmonds pour RT Flash Le Vif | | | |
| la Food and Drug Administration (FDA), l'autorité de santé américaine, a donné son feu vert à la commercialisation, aux États-Unis, d'une intelligence artificielle capable de diagnostiquer une rétinopathie diabétique... sans intervention d'un médecin. La rétinopathie diabétique est une grave maladie de l'œil qui touche 50 % des patients diabétiques de type 2. Concrètement, l'excès de sucre dans le sang fragilise la paroi des capillaires oculaires, ce qui peut conduire à l'éclatement des vaisseaux sanguins rétiniens : sans traitement, le risque de cécité est très élevé. Baptisé IDx-DR, ce logiciel innovant est capable de détecter la maladie en prenant des photos très précises de la rétine du patient. Doté d'une intelligence artificielle, IDx-DR ne se contente pas de prendre les photos : il les analyse ensuite pour établir un diagnostic en totale autonomie. « Le IDx-DR est le premier appareil autorisé à la commercialisation qui fournit une décision de dépistage sans qu'un clinicien interprète également l'image ou les résultats, ce qui le rend utilisable par des professionnels de santé qui ne sont normalement pas impliqués dans les soins oculaires », a expliqué la FDA dans son communiqué. L'autorisation de la FDA se fonde sur une étude clinique portant sur 900 patients diabétiques. Dans près de 90 % des cas, le IDx-DR a réalisé le bon diagnostic, que le patient soit ou non atteint d'une rétinopathie diabétique. En revanche, les autorités sanitaires précisent que l'intelligence artificielle ne fonctionnera pas sur les patients ayant bénéficié d'un traitement au laser, sur les femmes enceintes ou encore sur les patients souffrant d'une perte de vision persistante. Article rédigé par Georges Simmonds pour RT Flash FDA | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|