| | Edito Vers un nouvel éclairage de l’autisme ?
En un demi-siècle, l'autisme est devenu la troisième pathologie psychiatrique la plus répandue dans le monde, derrière la dépression et les troubles bipolaires, et devant la schizophrénie. Selon l’OMS, un enfant sur 160 présenterait un trouble du spectre autistique, mais cette prévalence varie notablement d’une étude à l’autre, et atteint par exemple le niveau-record d'un enfant sur 70 aux États-Unis. En France, l’Inserm estime que 650 000 personnes – dont les trois quarts sont des hommes - seraient atteintes d’autisme, soit une augmentation d'au moins 40 % en 20 ans. Alors qu'au niveau international la prévalence (nombre total de cas) des troubles du spectre autistique était évaluée à moins de 0,05 % de la population il y a 50 ans, elle atteint aujourd'hui, en moyenne, les 1 %, allant même jusqu'à 2 % aux États-Uni s et 2,5 % en Suède... Cette hausse spectaculaire du nombre de nouveaux cas d'autisme diagnostiqués doit cependant être relativisée car, selon plusieurs études concordantes, elle serait largement due à une définition plus large de ce trouble. C'est notamment ce que montre une étude américaine (Voir Wiley) réalisée en 2015 par des chercheurs de la Penn State University. Ce travail souligne en effet que "Cet accroissement pourrait être attribué à une reclassification du diagnostic des troubles neurologiques de la plupart des enfants plutôt qu'à une explosion réelle des nouveaux cas d'autisme". Une autre étude suédoise réalisée sur 20 000 enfants et adolescents va également dans le même sens (Voir BMJ) et montre que le nombre de cas réels d'autisme est resté stable entre 1993 et 2002 en Suède. La première étude scientifique sur l’autisme a été réalisée en 1943 par le pédopsychiatre Léo Kanner. Ce trouble se caractérise par des problèmes de communication (langage et communication non verbale), des troubles du comportement et des réactions sensorielles inhabituelles. Depuis l'étude de Kanner, de très nombreuses recherches ont tenté de déterminer les causes de cette déroutante pathologie, généralement diagnostiquée entre 18 et 36 mois, qui se manifeste sous de multiples formes : autisme atypique, syndrome de Rett, syndrome d’Asperger, troubles désintégratifs… Aujourd’hui, une large part de la communauté scientifique s’accorde pour reconnaître que l’autisme, ou plutôt les différentes formes d’autisme, ont des causes multiples et intriquées : facteurs génétiques, hormonaux, métaboliques, environnementaux, psychologiques et affectifs. Face à cette très grande complexité, l’étude scientifique et la prise en charge de l’autisme s’orientent de plus en plus vers des approches et des équipes pluridisciplinaires, faisant appel aux neurosciences, mais également à la psychologie et la psychanalyse. Quant à l’opposition, longtemps irréductible dans notre pays, entre les neurosciences et la psychanalyse dans l’approche théorique de l’autisme, elle tend depuis quelques années à se réduire et est aujourd’hui très largement dépassée par la validation scientifique du concept très novateur de plasticité cérébrale, magistralement démontré par Eric Kandel, prix Nobel 2000. Grâce aux travaux de Kandel, prolongés et confirmés par d’autres recherches, on sait à présent que les expériences vécues laissent des traces dans le réseau neuronal et s’inscrivent dans la structure même de notre cerveau. On sait également que ces traces, loin d’être figées, se réassocient en permanence dans un processus dynamique de reconstruction du sujet, ce qui ouvre enfin l a voie à une véritable théorie biologique de l’esprit, que Freud avait toujours souhaitée, et qui vise à articuler, sans les confondre en un vague syncrétisme, le niveau biologique et neurostructurel et le niveau psychique, symbolique et imaginaire. Le fondateur de la psychanalyse, biologiste de formation, aurait sans doute été ravi de l’extraordinaire effervescence qui règne dans le domaine des recherches en neurosciences visant à mieux comprendre l’autisme. En novembre dernier, dans le cadre du programme scientifique InFoR-Autism, une étude de neuroimagerie IRM s’est par exemple intéressée aux liens entre la connectivité anatomique locale et la cognition sociale chez des personnes présentant des troubles du spectre de l’autisme (TSA). De manière très intéressante, les résultats de ces travaux semblent remettre en question le modèle théorique dominant selon lequel les TSA proviendraient d’un déficit de connexions « longue-distance » entre des neurones situés dans les aires cérébrales opposées, associé à une augmentation de la connectivité neuronale à « courte distance », entre des zones cérébrales adjacentes. Ces dernières années, de nombreux travaux ont montré, chez des personnes présentant des TSA, des anomalies du fonctionnement de certaines aires cérébrales que l’on sait responsables du traitement des émotions, du langage ou encore des compétences sociales. Ces recherches sur la connectivité cérébrale des personnes avec TSA ont notamment mis en évidence un déficit de connexions « longue distance » contrastant avec une augmentation de la connectivité « courte distance ». Ces résultats ont permis la construction d’une théorie de compréhension des TSA, selon lequel le défaut d’attention sociale et de traitement de l’information observé (difficulté à appréhender une situation dans son ensemble, attention portée à certains détails) s’explique par une saturation d’informations traitées par le cerveau, liée à l’augmentation de la connectivité neuronale entre des zones cérébrales adjacentes. Dans ces recherches, les scientifiques, en recourant à un atlas spécifiquement dédié à l’analyse par tractographie de 63 connexions « courte distance » à partir d’images obtenues par IRM de diffusion (IRMd), ont pu étudier les liens entre la connectivité « courte distance » et la cognition sociale chez une population adulte homogène de personnes présentant des TSA, issues de la cohorte InFoR-Autism (27 personnes présentant des TSA sans déficience intellectuelle et 31 personnes contrôle). Les résultats obtenus sont pour le moins surprenants, puisqu’ils montrent que les sujets souffrant de TSA présentent une diminution de la connectivité dans 13 faisceaux « courte distance », en comparaison avec les sujets contrôles. Par ailleurs, cette anomalie de la connectivité des faisceaux « courte distance » est corrélée au déficit de deux dimensions de la cognition sociale (à savoir, les interactions sociales et l’empathie) chez les sujets présentant des TSA. Cette étude vient donc remettre en cause la théorie actuelle, selon laquelle le déficit d’attention sociale et de traitement de l’information chez les personnes présentant des TSA serait provoqué par une augmentation de la connectivité neuronale entre des zones cérébrales adjacentes. Pour le Professeur Josselin Houenou, « ces résultats sont préliminaires mais ils suggèrent que ces anomalies de la connectivité « courte distance » pourraient être impliquées dans certains déficits de la cognition sociale présents chez les sujets autistes ». En janvier dernier, une autre étude très intéressante est venue confirmer la piste d’un défaut de maturation des neurones avant et juste après la naissance pour expliquer l’origine de l’autisme. Dans ce travail dirigé par Robin Cloarec (Inserm), les chercheurs ont, pour la première fois, observé une augmentation des volumes du cortex et de l’hippocampe sur une région impliquée dans les interactions sociales juste après la naissance. Cette découverte renforce l’hypothèse selon laquelle l’autisme est un trouble engendré in utero. Par ailleurs, un médicament diurétique, la bumétanide, abolit cette croissance excessive chez le rat (Voir Science Advances), ce qui suggère de nouvelles pistes thérapeutiques. En recourant à une technique de transparisation (technique d’imagerie permettant de rendre des tissus transparents) du cerveau appelée iDISCO qui permet de le visualiser en 3D, ces chercheurs ont comparé les cerveaux immédiatement avant et après la naissance, chez des rats témoins et dans un modèle animal d’autisme. Les chercheurs ont également reconstruit des neurones corticaux afin de déterminer si ceux-ci subissent des modifications durant cette période. Ces recherches montrent clairement que, chez les rats témoins, le volume du cerveau et la taille des neurones sont semblables avant et après la naissance, observations qui concordent avec celles réalisée sur des enfants prématurés : le cerveau ne croît pas pendant la naissance, ce qui correspond probablement à un rôle protecteur pendant une période vulnérable, rôle qui pourrait résulter de l’action d'un facteur de croissance comme le Brain-Derived Neurotrophic Factor (BDNF). Ces recherches ont également montré que la bumétanide, un médicament diurétique, abolit cette croissance excessive, ce qui ouvre une piste thérapeutique à explorer. Selon ces travaux, le mécanisme protecteur qui prépare le cerveau à la naissance serait impacté dans l’embryon du futur enfant autiste, ce qui le rendrait plus vuln&ea cute;rable. « Nos travaux montrent pour la première fois que l’événement intra-utérin qui génère l’autisme impacte le travail et la naissance », souligne le Professeur Ben-Ari. Cette croissance du cerveau lors de l’accouchement pourrait aggraver le phénomène pathologique intra-utérin mais aussi modifier le travail et provoquer les accouchements prématurés. « On sait que chez les adolescents autistes, le cerveau est plus grand que celui des adolescents non touchés par la maladie. Avec cette découverte, on vient de découvrir que ce processus commence déjà pendant l’accouchement » précise le Professeur Ben-Ari. Reste que ces travaux ne permettent pas de trancher pour savoir si c’est l’autisme qui déclenche la prématurité, ou la prématurité qui provoque l’autisme… En 2018, une autre équipe de recherche suisse a identifié un circuit cérébral spécifique pouvant conduire à des déficiences sociales dans les troubles du spectre autistique (TSA). Ces chercheurs ont montré que l'augmentation de l'activité de cette zone, l’habenula, conduit à des déficits sociaux chez les rongeurs. Corrélativement, la réduction de cette activité semble diminuer ces anomalies comportementales (Voir Biological Psychiatry). L'étude suggère ainsi que les déficiences sociales caractéristiques du TSA peuvent provenir de l'altération de l'activité dans ce circuit, et que l'ajustement de ce circuit pourrait contribuer au traitement des troubles du comportement social dans l’autisme. Une activité anormale de ce circuit pourrait donc être impliquée, chez certains patients, dans le déclenchement de troubles autistiques. Ces recherches ouvrent également de nouvelles perspectives dans la compréhension d'autres pathologies, comme la schizophrénie et la dépression. Car ce circuit comprend des zones cérébrales impliquées dans la récompense et le plaisir. Ces travaux confortent l'hypothèse selon laquelle le dysfonctionnement social observé dans l’autisme pourrait être lié à un moindre plaisir dans l'interaction sociale. Quant aux bases génétiques de l’autisme, elles restent très difficiles à cerner, comme le souligne Thomas Bourgeron, qui est professeur de génétique à l'Université Paris Diderot et chercheur à l'Institut Pasteur de Paris. Celui-ci rappelle fort justement qu’en dépit des avancées dans l'identification des gènes et des voies biologiques associés à l'autisme, les chercheurs ne comprennent toujours pas comment la même mutation peut avoir des résultats divergents. Il souligne également qu’il est important de comprendre comment certaines personnes autistes portent des mutations associées à l’autisme sans présenter les symptômes et semblent résilients, c’est-à-dire capables de faire face à des mutations délétères et de ne pas déclencher cette pathologie. Pour cet éminent chercheur, l’architecture génétique de l'autisme est diffuse et hétérogène. Chez certaines personnes, une seule mutation semble suffire à avoir un diagnostic d’autisme. Dans d'autres cas, l'autisme est probablement dû à l'effet additif de milliers de variants génétiques communs retrouvés dans la population générale, chacun ayant un faible effet. Malheureusement, déplore Le Professeur Bourgeron, l'identification de ces gènes a involontairement contribué à l'émergence d'une conception simpliste de l'autisme en tant que trait binaire : vous être atteint, ou pas, par ce trouble. Mais cette vision manichéenne ne prend pas en compte l’extrême hétérogénéité clinique de l’autisme. En outre, on sait à présent que les mutations connues et associées à l'autisme ne conduisent pas toujours à l’apparition de ce trouble. Pour certaines mutations, tous les porteurs vont certes présenter des troubles autistiques, mais pour d’autres mutations, seule une faible proportion des personnes porteuses sera atteinte par cette pathologie. Une toute récente étude, publiée il y a quelques semaines et réalisée par des chercheurs de l’Université du Colorado (Etats-Unis), est venue confirmer cette grande complexité des bases génétiques de l’autisme. Selon ces travaux, certains des gènes impliqués dans l’autisme ne seraient pas identifiables par les méthodes d’analyses classiques (Voir University of Colorado Anschutz Medical Campus). L’équipe de James Sikela, professeur du département de biochimie et de génétique moléculaire de l’Université du Colorado, a analysé les génomes de personnes atteintes d’autisme. Ces chercheurs ont montré qu’une séquence génétique, appelée DUF1220 (ou Olduvai), avait un lien avec l’apparition des symptômes. La particularité de cette séquence génétique est qu’elle se répète et est très variable. Afin de mieux évaluer le rôle de ces gènes dans la gravité de l’autisme, ces scientifiques ont développé une technique de mesure plus précise qui a permis de cibler les gènes de la séquence DUF1220 qui pourraient être impliqués dans certaines formes d'autisme. Mais, de l’avis du Professeur Sikela, il reste un immense travail d& #8217;identification et d’analyse pour comprendre le rôle des mécanismes génétiques dans l’apparition des troubles autistiques. Il faut également évoquer une nouvelle piste thérapeutique qui est explorée depuis une dizaine d'années : celle de l'ocytocine. En 2010, l’équipe d’Angela Sirigu (Centre de neuroscience cognitive – CNRS/Université Claude Bernard Lyon 1) est parvenue à démontrer que l’administration d’ocytocine (une hormone connue pour son rôle dans l’attachement maternel et le lien social) par vaporisation nasale améliorait de manière significative les capacités des patients autistes à interagir avec les autres personnes. En 2015, une équipe du Brain and Mind Centre de l'Université de Sydney (Australie) a voulu également vérifier l'hypothèse postulant que l'apparition de l'autisme pouvait être favorisée par un déficit d'ocytocine au moment de la naissance ou encore que ces personnes présentaient des taux de cette hormone anormalement bas dans le sang (Voir NCBI). Ainsi, 31 enfants de 3 à 8 ans atteints du trouble du spectre autistique ont reçu par voie nasale 2 doses quotidiennes soit de cette hormone, soit d'un placebo. Deux phases de l'essai espacées de 4 à 5 semaines pour éviter le risque d'interférence de l'hormone avec le placebo, et vice versa. Résultat : ce traitement a amélioré leurs symptômes d’un point de vue comportemental, émotionnel et en termes de sociabi lité. Après traitement par ocytocine, les parents ont rapporté de meilleures interactions avec leurs enfants, et l’évaluation par des cliniciens indépendants a confirmé cette amélioration de la réponse sociale au Centre de suivi. Mais pour intéressante qu'elle soit, cette voie de l'ocytocine ne saurait en aucun cas constituer une panacée dans le traitement des troubles autistiques. Il faudra en effet réaliser de nombreuse autres études, bien plus larges, pour pouvoir évaluer correctement le potentiel thérapeutique de cette piste dans les différentes formes d'autisme et repérer les éventuels effets indésirables d'une telle thérapie sur le long terme... On le voit, l'approche scientifique et médicale de l'autisme a considérablement évolué au cours de ces trente dernières années, même si la prise en charge de cet ensemble déroutant de troubles reste malheureusement difficile en France, du fait, notamment d'une insuffisance criante de structures, de moyens d'accueil et de soins adaptés (seule une personne autiste sur six bénéficie d'un accompagnement médico-psychologique approprié dans notre pays). C'est dans ce contexte qu'il y a quelques jours, le CHU de Montpellier a lancé le projet Elena (Étude Longitudinale chez l'Enfant avec Autisme), un vaste programme de recherche, qui consiste à suivre une cohorte de 800 enfants et adolescents, âgés de 2 à 16 ans, qui présentent des troubles du spectre autistique. Cette étude, d'une ampleur sans précédent, va inclure à terme 850 jeunes patients (Voir Cohorte ELENA). Pendant six ans, chaque patient sera suivi par une équipe pluridisciplinaire de cliniciens et de chercheurs. Treize centres spécialisés dans toute la France seront chargés de collecter des données cliniques, médicales, sociales et environnementales, qui seront passées au crible. L’impact de la pollution de l’air, des perturbateurs endocriniens, mais &e acute;galement les parcours de vie familiale et sociale des patients seront notamment pris en compte, analysés et recoupés. Cette étude, résolument transdisciplinaire vise à la fois à identifier de nouveaux facteurs de risque, et à mieux évaluer leur poids respectif dans les différents types de troubles répertoriés. Espérons qu'elle permettra, en synergie avec les avancées de la recherche, et grâce à une collaboration scientifique et clinique plus étroite entre les approches neurobiologiques, psychologiques et psychanalytiques, de mettre en place des mesures de prévention plus adaptées et des traitements plus ciblés afin, non seulement d'améliorer la qualité de vie et l'intégration socio-professionnelle des personnes touchées par ces troubles autistiques, mais peut-être de parvenir également à réduire de manière significative l'incidence de cette maladie. René TRÉGOUËT Sénateur honoraire Fondateur du Groupe de Prospective du Sénat | |
| | Recherche & Innovation, Technologies, Transports | |
| | | Un peu comme pour le principe de fonctionnement de l’imagerie LiDAR, les ondes sub-terahertz sont réfléchies par les objets et les signaux renvoyés peuvent ensuite être détectés et traités pour la détection et la cartographie d’objets. La différence étant que les longueurs d'ondes inférieures au térahertz (entre les rayonnements micro-ondes et infrarouges) peuvent être facilement détectées à travers des nuages de brouillard et de poussière, alors que de telles conditions dispersent le signal infrarouge émis par les LiDARs. Dans un article intitulé « Un réseau de récepteurs hétérodynes de 32 GHz à 240 GHz en CMOS 65 nm avec Array-Wide Phase Locking », publié dans le journal IEEE Journal of Solid-State Circuits, les chercheurs rapportent l'intégration de deux systèmes récepteurs hétérodynes 4x4 bloqués en phase dans une zone de la puce de 1,2 mm², permettant le pilotage simultané de deux faisceaux indépendants, ce qui offre une amélioration très sensible de la sensibilité pour la détection sensible à la phase. "Une grande motivation pour ce travail est d'avoir de meilleurs "yeux électriques" pour les véhicules autonomes et les drones", a expliqué le co-auteur Ruonan Han, professeur agrégé en génie électrique et en informatique et directeur du groupe Terahertz Integrated Electronics au sein du MIT Microsystems. Laboratoires de technologie (MTL). « Nos capteurs sub-terahertz sur puce, à faible coût, joueront un rôle complémentaire à LiDAR dans les environnements difficiles ». La clé de la conception réside dans ce que les chercheurs appellent la "décentralisation". Dans cette conception, un seul pixel, appelé pixel "hétérodyne", génère le battement de fréquence (différence de fréquence entre deux signaux sous-térahertz entrants) et l’oscillateur local , un signal électrique qui modifie la fréquence d'une fréquence d'entrée. Ce processus de « mixage en ava l» produit un signal dans la plage des mégahertz, qui peut être facilement interprété par un processeur en bande de base. Le signal de sortie peut être utilisé pour calculer la distance des objets, de la même manière que la technologie LiDAR calcule le temps nécessaire au laser pour frapper un objet et rebondir. De plus, la combinaison des signaux de sortie d'une matrice de pixels et l'orientation des pixels dans une certaine direction peuvent permettre d'obtenir des images haute résolution d'une scène. Cela permet non seulement la détection, mais également la reconnaissance d'objets, ce qui est essentiel pour les véhicules autonomes et les robots. Article rédigé par Georges Simmonds pour RT Flash IEEE | | | |
| BMW vient de présenter son nouveau système de conduite, baptisé "BMW Natural Interaction". « Les voitures sont aujourd’hui prêtes à autre chose que d’aller d’un point A à un point B. Notre vision est une voiture intelligente qui devient beaucoup plus naturelle, une voiture qui est connectée, intuitive, prédictive, fiable, sans émission et autonome », a déclaré Christoph Grote, Senior Vice President BMW Group Electronics, à Barcelone, à l’occasion du Mobile World Congress. Pour cela, BMW continue d'innover : « On ne veut pas être dirigé par la technologie mais on veut diriger la technologie », insiste Christoph Grote. Au cœur de cette stratégie : l’interaction avec le conducteur, la voiture et son environnement. BMW profite ainsi du MWC pour annoncer le lancement de la solution BMW Natural Interaction. Ce nouveau système multimodal combine trois technologies déjà développées par le constructeur automobile : la commande vocale, le contrôle gestuel étendu et la reconnaissance du regard.Intégrée à l’assistant personnel de BMW. Cette solution vise à enrichir l’expérience à bord. Le premier à en bénéficier sera le SUV Vision i-Next dont le lancement est prévu en 2021. « On veut pouvoir utiliser BMW Natural Interaction à l’intérieur comme à l’extérieur de la voiture », explique à L’Usine Digitale Stefan Schubert, en charge de l’intégration de la solution chez BMW. « A l’intérieur, par exemple, si c'est une nouvelle voiture et que vous souhaitez savoir à quoi sert un bouton particulier sans en connaître le nom, il suffit de le pointer du doigt et de demander les informations à voix haute. Dans ce cas, l’assistant personnel va vous donner toutes les informations, comment vous pouvez l’utiliser… Pour nous, c’est notamment un très bon cas d’usage pour le "car sharing". » Autres possibilités à l’intérieur du véhicule : le réglage automatique des sièges ou de la température, la sélection de sa musique, l̵ 7;ouverture de la vitre… « A l’extérieur du véhicule, l’intérêt est de pouvoir obtenir des informations sur ce que vous voyez autour de vous », poursuit Stefan Schubert. Cette solution permettra ainsi au conducteur de demander à l’assistant personnel de lui indiquer le nom et autres informations d’un bâtiment, d’un restaurant, d’un hôtel… simplement en le pointant du doigt ou en le regardant. Et même de réserver une table, une chambre ou une place de cinéma. Très utile également, en pointant un parking du doigt, il sera possible de demander si des places sont libres ou non. Pour activer la commande, le conducteur devra combiner au moins deux types d’interactions : la voix et le regard, ou la voix et le geste – la commande vocale étant obligatoire. Ceci dans un souci de précision et de sécurité. Pour cela, la solution BMW Natural Interaction repose sur trois types de capteurs installés au sein du cockpit : le microphone qui reconnaît la parole, son contenu, sa vitesse et sa sémantique ; le système caméra du conducteur, soit un petit capteur vidéo (mono-caméra) placé derrière le volant qui permet de suivre le regard et l’orientation de la tête ; et un capteur vidéo ToF (Time of flight, ou "Temps de vol" en français) situé au niveau du rétroviseur intérieur qui permet de mesurer en temps réel une scène en 3D et de reconnaître les gestes. A terme, BMW compte développer l a solution dans tous ses véhicules, et pas simplement dans ses voitures automatiques. Article rédigé par Georges Simmonds pour RT Flash BMW | | ^ Haut | |
|
| Santé, Médecine et Sciences du Vivant | |
| | | Les personnes qui souffrent d'un cancer du côlon devraient-elles surveiller leur hygiène dentaire plus assidûment que les autres ? C'est ce que suggère une nouvelle étude menée par la Columbia University's College of Dental Medicine (Etats-Unis). Selon le groupe d'étude, les résultats auraient démontré qu'une bactérie responsable notamment du développement de caries dentaires pourrait également accélérer l'évolution du cancer du côlon dans l'organisme. Il serait donc plus difficile à soigner et moins réceptif aux traitements. "Jusqu'ici, afin de comprendre pourquoi certaines personnes ont plus de mal à guérir d'un cancer toutes les recherches étaient centralisées sur les mutations génétiques", explique le Docteur Han, responsable de l'étude. Mais il semblerait que "les microbes aient également un rôle à jouer". Lors de précédentes études, le Docteur Han avait déjà découvert qu'un tiers des cancers du côlon les plus agressifs était associé à la bactérie Fusobacterium nucleatum (F. nucleatum), responsable aussi des caries dentaires. Lors de cette nouvelle étude, les experts se sont rendu compte qu'une protéine appelée Annexin A1 était absente des cellules saines, mais présente dans les cellules cancéreuses du côlon. Cette dernière agirait donc comme nourriture pour aider les tumeurs à évoluer. En suivant l'attitude de la fameuse bactérie F. nucleatum sur des souris de laboratoire, il est apparu qu'elle augmente la production de la protéine Annexin A1, offrant une énergie nécessaire aux tumeurs, accélérant alors leur développement et leur évolution dans le côlon. En testant leur théorie sur 466 patients, les chercheurs confirment que les malades dont le pronostic vital était le plus sombre avaient un taux plus élevé de protéine Annexin A1. Une piste qui devrait permettre d'appréhender de façon différente les traitements contre le cancer du côlon, mais ouvre aussi d'autres possibilités pour d'autres types de cancers difficiles à soigner chez certaines personnes. Article rédigé par Georges Simmonds pour RT Flash Daily Mail | | | |
| Une équipe de chercheurs de l'Université Bar-Ilan de Jérusalem (Israël) tente de concevoir un système de gouttes oculaires qui permettrait aux personnes atteintes de myopie de se passer de lunettes, de lentilles ou de chirurgie correctrice. Un premier essai sur des yeux de porcs morts s'avère concluant et encourage les chercheurs à poursuivre leurs travaux. L'essai sur l'homme devrait théoriquement commencer en 2021. La technique consiste à modifier le trajet de la lumière dans l'œil afin de corriger la vue. Elle peut se décomposer en deux phases. Tout d'abord, un laser effectue des trous minuscules dans la cornée afin d'y tracer un motif correspondant à la correction propre à chaque patient. Ensuite, les gouttes oculaires, composées de nanoparticules, vont s'engouffrer dans ces trous et conduire la lumière à l'endroit souhaité pour une c orrection optimale. Le docteur David Smadja, à l'origine du concept, parle pour l'instant d'un effet qui durerait une semaine. Le tracé des motifs au laser devra se faire dans un premier temps chez un spécialiste, mais à terme, on pourrait imaginer le faire chez soi, tout seul, d'autant que l'opération est sans douleur. "Un peu comme les diabétiques qui se piquent aujourd'hui chez eux, avec un système ultra léger pour mesurer leur glycémie, on peut imaginer un mini laser hyper simple", précise David Smadja. Article rédigé par Georges Simmonds pour RT FLash Israel Valley | | | |
| Une équipe de scientifiques du Wake Forest Institute for Regenerative Medecine (WFRIM) affirme avoir développé une bio-imprimante de peau mobile, capable d’imprimer une couche de peau sur la blessure directement. Un système unique en son genre qui pourrait bien faciliter le traitement de certaines brûlures et leur cicatrisation par exemple. Cette bio-imprimante 3D mobile pourrait surtout ouvrir l’accès aux soins à davantage de patients qui seraient traités directement chez eux. La bio-impression a de réelles répercussions dans le secteur de la santé, que ce soit pour faciliter les greffes d’organes, trouver des traitements plus efficaces contre des maladies graves, soigner des blessures en tout genre ou encore créer des tissus et vaisseaux sanguins. Elle offre aujourd’hui une solution sur-mesure, adaptées aux spécificités de chaque patient et ce n’est que le début comme en témoignent les travaux de recherche du WFRIM. Les chercheurs auraient réussi à imprimer de la peau directement sur des modèles pré-cliniques. Pour ce faire, ils affirment avoir créé une encre constituée d’un substrat d’hydrogel et de cellules de peau, à savoir des fibroblastes et kératinocytes. Celles-ci seraient en effet facilement isolables à partir d’un échantillon de tissu non lésé du patient en question. Les fibroblastes sont des cellules qui synthétisent la matrice extracellulaire et le collagène qui jouent un rôle essentiel dans la cicatrisation des plaies, tandis que les kératinocytes sont les cellules prédominantes de l’épiderme, la couche la plus externe de la peau. Cette encre serait donc placée dans la bio-imprimante 3D mobile. Un scanner viendrait ensuite analyser la plaie, indiquant alors au logiciel où placer les cellules, couche par couche, dans la plaie. Sean Murphy, professeur assistant au WFRIM explique : “L’aspect unique de cette technologie est la mobilité du système et la capacité de gérer sur place les plaies étendues en les scannant et en les mesurant afin de déposer les cellules directement là où elles sont nécessaires pour créer la peau.” L’équipe doit désormais mener un essai clinique chez l’homme Actuellement, les greffes de peau pour traiter les plaies et les brûlures représentent la référence absolue en termes de soin mais, malheureusement, la protection de la plaie est souvent un défi, en particulier lorsqu’il y a peu de peau saine à prélever. Les greffes de peau de donneurs seraient une option mais risqueraient de provoquer un rejet immunitaire de la greffe et la formation de cicatrice. Avec le système de bio-imprimante 3D mobile du WFIRM, les chercheurs ont pu voir une nouvelle peau se former à partir du centre de la plaie et ce, avec les propres cellules du patient – les tissus ont en effet été acceptés et non rejetés. Le directeur du WFIRM, Anthony Atala, conclut : "Cette technologie pourrait éliminer le besoin de greffes cutanées douloureuses qui causent une défiguration supplémentaire aux patients souffrant de plaies ou de brûlures importantes. Une bio-imprimante mobile capable de traiter sur place les plaies étendues pourrait aider à accélérer la prestation des soins et à réduire les coûts pour les patients". Article rédigé par Georges Simmonds pour RT Flash 3dnatives | | | |
| Les patients dont les tumeurs sont porteuses d’un défaut génétique rare appelé « fusion NTRK », et qui sont en échec thérapeutique, pourront bientôt bénéficier d’une nouvelle thérapie ciblée, le larotrectinib. Le traitement sera disponible dans le cadre d’une d’Autorisation temporaire d’utilisation de cohorte (ATUc), a annoncé l’ANSM le 13 février. La particularité du larotrectinib est d’inhiber la prolifération des cellules cancéreuses liée à cette anomalie génétique rare et ce, quel que soit l’organe ou le tissu, siège de la tumeur. Il sera donc indiqué indépendamment de l’organe touché comme « traitement des patients adultes et pédiatriques atteints de tumeurs solides localement avancées ou métastatiques présentant une fusion NTRK (Neurotrophic Tyrosine Receptor Kinase) réfractaires aux traitements standards ou en l’absence d’alternative thérapeutique appropriée », précise l’ANSM. La fusion NTRK, c'est-à-dire la fusion d'un gène NTRK avec un ou d'autres gènes, est à l'origine d'une augmentation de la prolifération cellulaire anormale. Les fusions NTRK ont été observées dans plus de vingt types de cancers différents mais concernent moins de 1 % des cancers. Le larotrectinib agit en bloquant sélectivement les protéines TRK. « La délivrance de cette ATUc permet, dans l’attente de l’AMM, d’accélérer l’accès aux patients à cette thérapeutique innovante », souligne l’ANSM. A ce jour, le Larotrectinib a obtenu une autorisation de mise sur le marché aux Etats-Unis en novembre 2018. Et, en Europe, une demande d’AMM en procédure européenne centralisée est en cours d’instruction depuis septembre 2018, dans le cadre de la procédure d’évaluation accélérée. Article rédigé par Georges Simmonds pour RT Flash ANSM | | | |
| Caractérisée par une pression anormalement élevée du sang sur la paroi des vaisseaux sanguins, l’hypertension artérielle (HTA), est d’origine multifactorielle : le vieillissement, le surpoids, la sédentarité, le tabagisme, l'alimentation et bien d'autres facteurs interviennent dans sa survenue. Et tous n'auraient pas encore été identifiés. Ainsi, depuis quelques années, de plus en plus de données suggèrent que l’immunité aurait également un rôle spécifique dans son apparition. Des chercheurs de l’Inserm, dirigés par Pierre-Louis Tharaux, en collaboration avec une équipe écossaise, viennent de le confirmer en décrivant le rôle clé des macrophages : ces cellules de l’immunité contrôleraient le taux d’endothéline-1 (ET-1), un peptide produit par notre organisme qui favorise la contraction des vaisseaux sanguins et renforce ainsi la pression artérielle. Ces résultats, s’ils sont confirmés, pourraient ouvrir la voie vers de nouveaux traitements antihypertenseurs, ciblant ce mécanisme. L’intérêt des chercheurs s’est concentré sur les macrophages : « ces cellules de l’immunité participent normalement à la reconnaissance puis à l’élimination d’éléments présents au niveau des tissus –produits de dégradation, agents infectieux… » explique Pierre-Louis Tharaux, qui dirige l'équipe à l’origine de ces travaux. « Nous avons observé qu’ils présentaient à leur surface deux types de récepteurs à l’ET-1, les ETA et les ETB ». « Nous avons voulu comprendre le mécanisme impliqué : des essais réalisés sur des cultures cellulaires humaines ont montré que les macrophages captent l’ET-1 pour la dégrader en l'internalisant par un mécanisme d’endocytose dépendant du récepteur ETB ». Cette nouvelle fonction "d’épuration" de l’ET-1 par les macrophages a pu être observée in vivo, grâce à des modèles de souris hypertendues. « Lorsque nous avons génétiquement supprimé les macrophages chez les souris, nous avons observé que celles-ci présentaient alors une susceptibilité accrue à l’HTA. De la même façon, l’inactivation sélective du récepteur ETB à la surface des macrophages a suffi à augmenter les concentrations sanguines de l’ET-1 et à rendre les souris beaucoup plus sensibles à différents modèles d’induction de l’HTA » poursuit ce spécialiste. Les macrophages auraient donc un rôle de régulation de la concentration d’ET-1 produit par les cellules de l’endothélium vasculaire. Ils moduleraient la réponse constrictrice, et donc la pression artérielle. Une équipe de collaborateurs de l’Université d’Edimbourg s'est parallèlement intéressée aux cas de patients souffrant de maladies inflammatoires des petits vaisseaux, avec un vieillissement cardiovasculaire et rénal accéléré. Ces patients présentaient des taux sanguins d’ET-1 élevés et étaient fréquemment hypertendus. Or, ces patients sont traités par des médicaments immunosuppresseurs, dont certains diminuent la quantité de macrophages et de leurs précurseurs (les monocytes), et d’autres non. Les médecins ont eu la surprise de constater que l'augmentation de l’ET-1 et de la pression artérielle s'observait uniquement chez les patients dont le traitement fait baisser le nombre des monocytes dans le sang, comme prédit par les modèles de souris. Ces données pourraient donc aboutir à des évolutions thérapeutiques : elles pourraient motiver les praticiens à choisir les traitements immunosuppresseurs selon leur capacité plus ou moins forte à déprimer le taux de monocytes ou de macrophages, ou encore à y associer des traitements antihypertenseurs n’ayant pas d’activité sur les récepteurs ETB ou bloquant le récepteur vasculaire ETA dont la stimulation contracte elle aussi les artères. Une perspective particulièrement importante sur le plan de la santé publique, face aux plus de 7,6 millions d’hypertendus français, dont la moitié chez lesquels la pression artérielle n'est pas normalisée. L'équipe de Pierre-Louis Tharaux souhaite maintenant approfondir la compréhension de l’interaction entre l’immunité et les lésions d’organes observées dans les formes sévères d’HTA Article rédigé par Georges Simmonds pour RT Flash EHJ | | | |
| Pour la première fois, des chercheurs se sont intéressés à l’épuration d’une protéine responsable de la maladie de Charcot, une maladie neurodégénérative incurable dont souffrait le célèbre scientifique Stephen Hawking. La grande majorité des personnes qui développent une maladie neurologique rare, comme la sclérose latérale amyotrophique, ont une caractéristique en commun : l'accumulation toxique de la protéine TDP-43 au sein des cellules nerveuses. Des données post-mortem ont ainsi démontré que 97 % des personnes atteintes de sclérose latérale amyotrophique (SLA) étaient porteuses de ces dépôts protéiques toxiques. Les scientifiques ont donc décidé de se concentrer sur leur fonctionnement. L'auteur principal de l'étude, Christopher J. Donnelly, professeur de neurobiologie à l'Université de Pittsburgh, explique : « au lieu de cibler le gène qui cause la maladie chez un sous-groupe de malades, nous ciblons les protéines qui s'agglomèrent chez presque tous ces patients. Cela n'a jamais été fait auparavant ». L’équipe a constaté que les protéines TDP-43 se collaient les unes aux autres, formant des dépôts toxiques, lorsqu’elles n’étaient pas protégées par des ARN. L'acide ribonucléique (ARN) est une molécule biologique présente chez pratiquement tous les êtres vivants, et aussi chez certains virus. Les cellules utilisent en particulier l'ARN comme un support intermédiaire des gènes pour synthétiser les protéines dont elles ont besoin. Inspirés par ce qu'ils ont vu, les chercheurs ont donc mis au point une molécule artificielle qui cible spécifiquement le TDP-43 et s'y fixe, comme le ferait l'ARN. Et cela a fonctionné, puisque les protéines TDP-43 ne se sont pas agglomérées. La sclérose latérale amyotrophique (SLA), plus connue sous le nom de maladie de Charcot, est une maladie neurodégénérative grave qui se traduit par une paralysie progressive des muscles impliqués dans la motricité volontaire. Elle affecte également la phonation et la déglutition. Il s'agit d'une maladie au pronostic sombre, dont l'issue est fatale après 3 à 5 ans d'évolution en moyenne. Le plus souvent, c’est l’atteinte des muscles respiratoires qui cause le décès des patients. Article rédigé par Georges Simmonds pour RT Flash Neuron | | | |
| Un programme d’essais cliniques pionnier mené par des chercheurs britanniques et canadiens laisse espérer qu’il sera bientôt possible de réparer les cellules endommagées dans la maladie de Parkinson, ou du moins de freiner ou stopper sa progression. Ces travaux visaient à déterminer si l’augmentation du taux d’un facteur de croissance naturel, le facteur GDNF (“Glial Cell Derived Neurotrophic Factor”), pouvait régénérer les cellules cérébrales à dopamine mourantes chez les patients atteints de la maladie de Parkinson. Six patients ont participé à l’étude pilote initiale visant à évaluer la sécurité de cette approche thérapeutique, et 35 autres personnes ont ensuite participé à l’essai en double aveugle (où ni le médecin ni le patient ne sait qui reçoit quoi) de neuf mois. La moitié des participants a reçu des perfusions mensuelles de GDNF et l’autre moitié des perfusions d’un placebo. Le facteur de croissance GDNF était injecté aux participants via un implant inséré à l’aide d’une neurochirurgie assistée d’un robot. De cette manière, le GDNF a pu être injecté directement dans les zones cérébrales touchées par la maladie avec une extrême précision. Une procédure par ailleurs bien tolérée par les patients. Après neuf mois d’essai, les examens par TEP (Tomographie par Émission de Positrons) des patients traités par le placebo n’avaient pas changé par rapport au début de l’étude, alors que les patients ayant reçu du GDNF présentaient une amélioration totale dans une zone clé du cerveau touchée par la maladie, laissant penser que le traitement parvenait à réparer les cellules cérébrales endommagées. « Cet essai a montré que nous pouvions administrer des médicaments directement et de manière répétée dans le cerveau des patients, au fil de mois ou d'années. Il s'agit d'une avancée significative dans notre capacité à traiter les affections neurologiques, telles que la maladie de Parkinson, car la plupart des médicaments qui pourraient fonctionner ne peuvent pas passer du sang au cerveau du fait de sa barrière protectrice naturelle », a expliqué le Docteur Steven Gill, co-auteur de l’étude. « Il est essentiel de poursuivre les recherches pour explorer davantage ce traitement, car le GDNF pourrait potentiellement permettre d'améliorer la vie des personnes atteintes de la maladie de Parkinson », a conclu le Docteur Alan Whone, auteur principal de l’étude. Article rédigé par Georges Simmonds pour RT Flash IOS | | ^ Haut | |
|
| Sciences de la Terre, Environnement et Climat | |
| | | De tout temps, les systèmes biologiques marins ont subi des altérations plus ou moins importantes causées par la variabilité naturelle du climat. Des changements biologiques rapides, qualifiés de « surprises climatiques », ont également été détectés dans de nombreuses régions océaniques. Pour comprendre ces fluctuations biologiques, qu’elles soient brutales et inattendues ou à plus long terme, des chercheurs du CNRS, de Sorbonne Université et d’instituts européens, américains et japonais, ont développé une approche originale, basée sur la théorie de l’organisation de la biodiversité METAL. Pour élaborer ce modèle numérique, les scientifiques ont créé un grand nombre d’espèces théoriques, présentant une large gamme de réponses aux fluctuations naturelles des températures. Les espèces fictives, qui résistent aux fluctuations thermiques, s’assemblent ensuite en pseudo-communautés et colonisent progressivement toutes les régions océaniques. Les programmes d’observation de la biodiversité marine couvrent une faible superficie des océans et prennent bien souvent place dans des régions proches des côtes. Ce nouveau modèle basé sur la théorie METAL offre une couverture spatiale globale et permet d’identifier rapidement les changements biologiques majeurs qui pourraient affecter fortement la biodiversité marine et les services écosystémiques associés, tels que la pêche, l‘aquaculture ou le cycle du carbone. D’abord testé sur 14 régions océaniques, ce modèle a reproduit les changements biologiques observés sur le terrain depuis les années 1960. Appliqué ensuite à l’ensemble des océans, il a permis aux chercheurs de quantifier la force et l’étendue spatiale de ces changements biologiques. Grâce à ce modèle, ils ont mis en évidence une augmentation récente et sans précédent des « surprises climatiques », probablement à attribuer au phénomène El Niño, aux anomalies thermiques de l’Atlantique et du Pacifique et au réchauffement de l’Arctique. Dans la plupart des cas, le modèle prédit un événement un an avant qu’il ne se produise, permettant d’identifier les régions de biodiversité « à risque », mais actuellement non couvertes par les programmes d’observation sur le terrain. Alors que la biodiversité marine permet l’exploitation annuelle de 80 millions de tonnes de poissons et d’invertébrés marins, les changements de biodiversité mis en avant par ce nouveau modèle numérique se traduiront par une réorganisation globale des espèces et des communautés dans l’océan, qui pourront être bénéfiques ou dommageables pour l’Homme. Article rédigé par Georges Simmonds pour RT Flash CNRS | | ^ Haut | |
|
| | | L'équipe de Johan Martens, professeur de Chimie à la Faculté des bioingénieurs de la KUL, travaille depuis dix ans au développement d'un panneau solaire très spécial. Son principe : produire de l'hydrogène à partir de la vapeur d'eau présente dans l'air. Avec vingt panneaux, une famille devrait pouvoir être autonome en électricité et en chauffage pendant toute l'année. La recette classique de production d'hydrogène nécessite de l'eau et de l'électricité. Environnementalement, on pouvait donc mieux faire. L'un des défis de ces dernières années était de produire de l'hydrogène d'origine renouvelable. C'est la grande avancée de cette invention louvaniste. Il existe par exemple déjà un immeuble autonome en énergie grâce à l'hydrogène à Nantes par exemple. Mais dans ce cas précis, des panneaux photovoltaïques produisent de l'électricité qui scinde la molécule d'eau en deux parties : l'hydrogène d'un côté, l'oxygène qui repart dans l'atmosphère. Quant à l'hydrogène, il peut être stocké et réutilisé comme électricité via une pile à combustible. La production d'hydrogène nécessite beaucoup d'&eacu te;nergie. Les chercheurs belges, eux, ont développé un procédé qui utilise de l'air plutôt que de l'eau. "L'air contient de l'eau", explique Tom Bosserez, bioingénieur à la KUL. "L'air entre dans notre panneau. Au même moment, de l'énergie solaire arrive sur notre panneau solaire et transforme l'eau présente dans l'air en hydrogène qui ressort ici sur le côté". L'avantage du procédé, c'est qu'il est utilisable même dans les parties du monde où l'on manque d'eau. "Vous avez seulement besoin de la lumière du soleil et de la vapeur d'eau", explique Johan Martens, professeur à la Faculté des bioingénieurs de la KUL. "Et partout dans le monde vous avez de la vapeur d'eau dans l'air, même dans les endroits les plus secs au monde". Le panneau produit 250 litres d'hydrogène en moyenne par jour. "Ensuite, vous devez stocker cet hydrogène dans un contenant pressurisé, comme vous le feriez avec du gaz naturel", explique Johan Martens. C'est comme du gaz naturel, sauf qu'on ne produit pas de gaz à effet de serre au moment où on l'utilise. Quand on utilise de l'hydrogène, cela recrée de l'eau. La particularité de notre invention, c'est qu'on produit de l'hydrogène au rythme du soleil, à des courants électriques beaucoup plus faibles. On optimalise donc chaque étape et on minimalise les pertes". Le panneau va être testé les deux à trois prochaines années, et le professeur Martens compte sur une commercialisation au terme de cette période d'essai. Article rédigé par Georges Simmonds pour RT Flash RTBF | | | |
| Des chercheurs suisses ont mis au point le prototype d’un transformateur moyenne fréquence plus de dix fois moins encombrant que ses équivalents. Un dispositif de taille réduite qui pourrait enfin permettre de concilier courants continu et alternatif dans les réseaux et faciliter ainsi le déploiement de « smart grids ». États-Unis, 1880. Deux décennies après la Guerre de Sécession, un nouveau conflit éclate. Plus une guerre civile, mais un conflit technologique : « la Guerre des courants ». Une âpre bataille pour l’adoption d’un standard de distribution du courant ; un duel sans merci entre courants continu et alternatif ; une lutte féroce entre partisans du DC et défenseurs de l’AC, au cours de laquelle s’affrontèrent notamment Thomas Edison et Nikola Tesla. Vainqueurs triomphants de cette lutte intestine : Tesla et ses alliés, tenants de l’alternatif. Un siècle et demi plus tard, l’issue de la bataille se trouve remise en cause. Pas par révisionnisme, mais du fait des évolutions technologiques. L’essor de l’électronique de puissance permet en effet d’imaginer des réseaux de distribution au sein desquels courants alternatif et continu cohabiteraient sans peine ; et ce, grâce à des dispositifs baptisés SSTs, pour « solid-state transformers ». De véritables couteaux-suisses de la conversion électrique, qui doivent tout ou presque aux MFT, les « transformateurs de moyenne fréquence ». C’est justement le prototype d’une telle machine électrique que des chercheurs du Laboratoire d’électronique de puissance (PEL) de l’École polytechnique fédérale de Lausanne (EPFL), en Suisse, viennent de présenter. « Nous avons pu créer un prototype […] plus de dix fois moins encombrant que n’importe quel équivalent », révèle Marko Mogorovic, membre du PEL et co-concepteur du dispositif. Pour y parvenir, les chercheurs ont développé un système de modélisation informatique qui leur a permis de sélectionner, parmi plusieurs millions de modèles, celui dont l’efficacité s’est révélée la plus grande. « Nous avons ensuite pu fabriquer notre prototype, qui a confirmé les performances auxquelles nous nous attendions », retrace Marko Mogorovic. Un prototype mis à disposition, pour l’heure, des seuls acteurs du monde industriel et académique, mais dont une déclinaison définitive pourrait tout à fait trouver sa place dans les réseaux de distribution, comme l’entrevoit le directeur du PEL, Drazen Dujic : « En réduisant ainsi la taille des transformateurs de moyenne fréquence, nous fournissons des technologies qui sont en adéquation, et prêtes pour de futurs “smart grids”. » Des réseaux électriques intelligents au sein desquels AC et DC cohabiteraient enfin pacifiquement, signant ainsi pour de bon l’armistice de « la Guerre des courants ». Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | ^ Haut | |
|
| Nanotechnologies et Robotique | |
| | | Vicarious, une start-up américaine, propose une solution de réalité virtuelle à des chirurgiens, destinée à opérer des patients à distance. Ainsi, via leur casque VR, les praticiens pourraient contrôler de petits robots chirurgiens reproduisant fidèlement leurs gestes ! Adam Sachs et Sammy Khalifa se sont rencontrés durant leurs études au Massachusetts Institute of Technology (MIT) avant de fonder quelque temps plus tard la start-up Vicarious Surgical. Leur idée originelle était de mettre au point des robots miniatures capables de pénétrer et opérer le corps d’un patient au niveau de la cavité abdominale. Mais en plus, leurs travaux ont pris une tournure supplémentaire avec l’avènement de la réalité virtuelle. En effet, il est question de mini-robots associés à la VR : des machines dotées d’une tête et de deux bras respectant les mêmes proportions que celles d’un humain. Par le biais d’une caméra disposée par-dessus l’épaule du robot, un chirurgien peut voir comme s’il était à la place de la machine. L’humain peut également diriger les bras du robot, qui reproduira fidèlement les mêmes gestes. Selon les chercheurs, une très bonne connexion internet pourrait permettre d’opérer à plusieurs centaines de kilomètres de distance ! Vicarious Surgical a indiqué que ses objectifs étaient de réduire les coûts des opérations, mais aussi de permettre – via la VR – que n’importe quel patient bénéficie des services des meilleurs chirurgiens. Par exemple, les hôpitaux situés en campagne pourraient trouver une réelle utilité d’un tel dispositif qui, disons-le, est bien moins cher que les robots chirurgiens existants. « Sur un total de 313 millions d’interventions chirurgicales, seulement 900 000 ont été effectuées à l’aide de la robotique chirurgicale. Il s’agit d’un faible pourcentage mais l’équipement est très onéreux », a déclaré Dror Berman, fondateur d’une autre société du secteur (Innovation Endeavors) interrogé sur la question dans un article de TechCrunch. Pour l’instant, les mini-robots de Vicarious Surgical sont encore soumis à des tests en laboratoire et l’avenir nous dira si ceux-ci seront réellement commercialisés. En tout cas, depuis la création de cette start-up, plusieurs levées de fonds ont permis de dépasser les 30 millions de dollars, destinés au développement de cette technologie. Or parmi les investisseurs, nous retrouvons entre autres le Gates Frontier fund de Bill Gates, célèbre créateur et propriétaire de Microsoft. Article rédigé par Georges Simmonds pour RT Flash Tech Crunch | | ^ Haut | |
|
| Information et Communication | |
| | | OneWeb a annoncé le succès du lancement de ses six premiers satellites. Ils ont été envoyés à bord d’un lanceur Soyouz depuis le centre spatial de Kourou (Guyane) le 27 février 2019. « L’acquisition du signal a été confirmée pour les six satellites », indique l’entreprise britannique fondée par Greg Wyler, qui ajoute : « Cette étape marque le début de la plus grande campagne de lancements de l’histoire et le succès de la transition de la preuve de concept vers la commercialisation de OneWeb ». La suite ? L’envoi de plus de 30 satellites par fusée pour atteindre une constellation de plus de 650 satellites en orbite basse. L’objectif du projet est de fournir une couverture internet globale à bas coût. Les premières démonstrations sont prévues en 2020 et la couverture complète l’année suivante. « Le réseau OneWeb fournira une combinaison unique de haut débit, avec une faible latence - inférieure à 50 ms -, une vraie couverture globale jusqu’aux pôles, et une gamme de terminaux utilisateurs pour de multiples marchés », précise l’entreprise dans son communiqué. Les satellites communiqueront avec la Terre via deux bandes spectrales : Ka et Ku. La première sera utilisée pour la communication avec le réseau au sol qui connecte le système OneWeb à Internet. La seconde servira à la communication entre les satellites et les terminaux utilisateurs qui offrent la connexion internet aux clients. Deux premiers clients ont d’ores et déjà signé des contrats avec OneWeb : l’opérateur italien de télécommunications Intermatica, et le britannique Talia qui devrait en profiter dès 2021. Article rédigé par Georges Simmonds pour RT Flash Industrie & Technologies | | | |
| Grâce à l’intelligence artificielle de DeepMind, Google peut désormais prédire la production énergétique des fermes éoliennes qui alimentent ses Data Centers. Ainsi, l’IA permet de faire des fermes éoliennes des sources d’énergie plus fiables et plus rentables. En 2018, Google a annoncé avoir enfin atteint son objectif : utiliser uniquement des sources d’énergie renouvelables. Pour parvenir à cette prouesse, le géant de Mountain View a notamment noué des contrats avec des fournisseurs et a investi massivement dans des fermes solaires et éoliennes pour alimenter ses Data Centers. Cependant, l’énergie éolienne peut être difficile à utiliser parce que la quantité d’énergie générée par une ferme varie chaque jour. En effet, tout dépend de la puissance avec laquelle souffle le vent. Il s’agit donc d’une source d’énergie imprévisible et, par conséquent, moins utile qu’une source capable de fournir la quantité d’énergie souhaitée au moment voulu. Certes, il est impossible d’éliminer la variabilité du vent. En revanche, grâce à l’intelligence artificielle et aux algorithmes de Machine Learning de sa filiale londonienne DeepMind, Google annonce être en mesure de prédire la production énergétique de ses fermes éoliennes. Ceci lui permet de planifier la production, le stockage et la fourniture d’énergie. Selon Google, cette nouvelle technologie permet d’augmenter la « valeur » de l’énergie de ses fermes éoliennes à hauteur de 20 %. En outre, cette approche permet d’obtenir des données plus rigoureuses sur l’exploitation des fermes éoliennes et le Machine Learning peut aider les opérateurs à gérer les installations plus intelligemment grâce à ces données pour répondre à la demande en temps réel. Pour rappel, ce n’est pas la première fois que DeepMind utilise l’IA pour maximiser l’efficacité énergétique. En 2016, Google annonçait avoir réduit les coûts énergétiques de ses Data Centers de 15 % grâce à DeepMind. En 2018, Google a même décidé de laisser davantage de contrôle à cette IA sur ses Data Centers. Selon la rumeur, en 2017, l’agence nationale du réseau électrique britannique aurait elle aussi fait appel à DeepMind pour l’aider à mieux adapter son offre à la demande. L’intelligence artificielle semble donc en bonne voie pour révolutionner le secteur de l’énergie… Article rédigé par Georges Simmonds pour RT Flash Google | | ^ Haut | |
|
|
VOTRE INSCRIPTION | | Vous recevez cette lettre car vous êtes inscrits à la newsletter RTFLash. Les articles que vous recevez correspondent aux centres d'intérêts spécifiés dans votre compte. Désinscription Cliquez sur ce lien pour vous désinscrire. Mon compte pour créer ou accéder à votre compte et modifier vos centres d'intérêts. |
| |
|
|