De nos relations avec nos lointains cousins.

Avouez qu'il fait envie.

S’accoupler entre cousins, ce n’est pas réservé aux Amish, aux nobles et au Nord-Pas-de-Calais (voire à Darwin). Cela étant dit, le résultat n’est pas toujours à la hauteur des grandes espérances, il n’y a qu’à voir les têtes qui soutiennent encore certaines couronnes européennes. Mais en y regardant bien, étendre un peu la définition de ‘cousin’ permet de voir ces relations particulières d’un oeil nouveau.

En effet, élargissons le champs des possibles : intéressons nous à nos lointains cousins, ceux que l’histoire regarde comme les gentils attardés du banquet de l’évolution. Je veux bien entendu parler de Néanderthal et Denisova. Si tous les deux partagent avec nous autres Homo Sapiens un ancêtre commun africain, les populations se sont séparées il y a environ 400 000 ans. Toutefois, les populations ont eu des contacts avant l’extinction des deux plus malchanceuses et, attrait pour l’exotisme, gout de l’inconnu et envie de découvertes, ces contacts ne se sont pas limités à un café ou quelques chansons autour du feu.

A tel point que lorsque l’on analyse le génome de Néanderthal, on peut constater que certains de nos contemporains peuvent partager jusqu’à 9% de gènes commun avec notre cousin éloigné. Le même genre de lien peut se retrouver avec Denisova. Il est donc clair que des échanges génétique (euphémisme qui pourrait servir, ‘mais voyons chérie, ce n’était rien de plus qu’un échange génétique’) ont eu lieu entre les divers groupes d’hominidés. Une fois le constat fait, il reste à en explorer les conséquences.

C’est ce que s’attache à faire un groupe de chercheurs (dont une bonne partie vient de l’université de Stanford) qui publie dans le prestigieux Science ses conclusions. Ainsi, selon les auteurs, ces frasques entre hominidés consentants ont abouti à l’introduction dans le génome d’Homo Sapiens d’une variante d’antigènes HLA, partie critique de notre système immunitaire jouant un rôle clé dans la reconnaissance des pathogènes.

Ainsi, avant même le décodage du génome de Néanderthal et Denisova, les chercheurs se doutaient qu’au moins une variante, du doux patronyme de HLA-B*73, venait de ces groupes d’humains plus anciens. Cette variante est en effet rare dans la population mondiale, mais plus fréquent dans les populations d’extrême-orient : cela indique que cette variante est sans-doute apparue tardivement dans le génome d’Homo Sapiens, après la migration vers l’Asie. Depuis la découverte de Denisova (dont on ne sait pas grand chose sorti de son génome, puisque l’on a retrouvé qu’un doigt et une dent), on a pu se rendre compte que cette variante était présente chez cette population vivant en Asie. On a donc pu établir que des relations entre populations ont eu lieu en Asie, même si l’allèle en question n’est pas présent chez plus de 5% des asiatiques. Certains autres allèles comme HLA-A*11, absents totalement des populations modernes d’Afrique mais existant chez Denisova, peut représenter jusque’à 64% de la population d’Océanie, devenant ainsi dominant dans ces populations.

Le même style de transfert s’est produit avec Néanderthal, et ces rapprochements ont finalement permis d’étendre la diversité de notre système immunitaire, augmentant du même coup nos chances de survie. Mais ça ne marche pas à tous les coups, laissez donc votre cousine tranquille.

Publicités

La cape d’invisibilité, le retour.

On comprend que certains veuillent se rendre invisible.

Certaines mauvaises langues diront qu’il ne s’agit pas que du retour de la cape, mais aussi d’un petit pic sur un encéphalogramme bien plat ces derniers mois. Rien d’étonnant pour ceux qui se sont aperçus que ça m’arrivait régulièrement, avec cette fois une vraie excuse : j’ai un peu passé mon temps à faire de la diffusion scientifique en vrai, devant des vrais gens, pendant un bon moment. Bref, ce n’est pas si intéressant que ça, mais je me sentais obligé.

Donc, je parlais cape d’invisibilité. Un sujet qui tombe aussi bien qu’une vieille acariâtre pendant la canicule du mois de Juillet que nous avions tant souhaité, puisqu’outre mon invisibilité électronique, c’est le retour annuel d’Harry le Potier, qui use et abuse de l’artefact. Dans un précédent article (qui fait lui aussi référence au magicien, c’est dire si je me renouvelle), j’évoquais une approche nouvelle pour cacher au regard un objet.

Résumons donc, il existe deux grandes voies pour atteindre l’invisibilité pour le moment, en dehors bien sur de toute magie ou technologie extraterrestre. Ces deux approches reposent toutes les deux sur l’utilisation de métamatériaux, des matériaux qui réagissent de façon un peu particulière à la lumière :

  • tout d’abord, certains de ces matériaux peuvent courber la lumière d’une façon inhabituelle ( avec par exemple un indice de réfraction négatif ou variable). On peut ainsi penser les utiliser pour détourner la lumière d’un objet, de sorte qu’aucun rayon lumineux ne touche l’objet.

    Un bon schéma vaut mieux que de grands discours, surtout quand on parle d'optiques. Ici, une illustration prise à l'université d'Helsinki.

  • Ces métamatériaux permettent aussi d’influer sur la vitesse de propagation de la lumière. Ainsi, on peut reprendre l’image de la téléportation « Star Trek », comme l’ont baptisée les chercheurs anglais à son origine (voilà qui n’aidera pas les clichés sur les scientifiques, mais les références à la téléportation sont relativement rares dans les milieux moins geek- mais je préfère Code Quantum-) : il suffit alors de ralentir la lumière le temps de laisser l’objet à cacher passer, puis de la réaccélérer derrière afin de donner l’illusion que rien ne s’est produit.

Ces deux techniques présentent chacune leurs inconvénients : si la seconde demande l’installation d’un corridor de métamatériaux et des conditions très strictes en terme d’illumination, quasi-impossible à obtenir dans le monde réel (confinant Prédator au laboratoire, Schwarzi devra mettre une blouse et des lunettes de sécurité avant de le voir saigner), le premier ne marchait jusqu’à présent que dans l’infrarouge. Jusqu’à présent, puisque dans Nano Letters est narrée le petit bond en avant réalisé par des chercheurs de l’Université de Californie à Berkeley.

En effet, en fabriquant un guide d’onde (qui, comme son nom l’indique, sert à guider les ondes) en nitrure de silicium déposé sur une couche d’oxyde de silicium nanoporeux spécialement conçue. Ensuite, on creuse des trous dans ce guide à toute petite échelle (plus petite que la longueur d’onde de la lumière), ce qui va permettre de moduler l’indice de réfraction. On peut alors cacher des objets, pour le moment de la taille d’un globule rouge (même si, dans leur enthousiasme légendaire quand il s’agit de parler de leur travail, les chercheurs en questions indiquent que l’on pourrait cacher de plus gros objets), en les glissant entre le guide et l’oxyde de silicium. L’avancée réside dans le fait que l’on peut cacher des objets non plus dans l’infrarouge, mais bien dans le visible. On obtient alors le rêve de la ménagère : un tapis sous lequel la poussière disparaît de sa vue.

Ca me fait une belle jambe.

Nous vivons dans un monde dangereux, avec ses guerres présentes et passées (les mines anti-personnelles des affrontements précédents continuent de faire des ravages, malgré l’investissement de volontaires qui travaillent d’arrache-pied). Heureusement, nos connaissances médicales nous permettent de nous rattraper un peu, et des progrès se font tous les jours dans le domaine des prothèses. Cela peut ressembler à un pansement sur une jambe de bois, mais chaque amélioration contribue potentiellement à améliorer le quotidien de milliers de personnes. Celle qui nous intéresse aujourd’hui vise à rendre les membres artificiels plus résistants aux infections.

En effet, le corps humain a une protection naturelle contre les infections et les corps étrangers, la peau. Mais lorsqu’un membre est amputé, et une prothèse posée, il y a une rupture de cette barrière, et donc une porte-ouverte aux infections plus grande que les cuisines d’un kebab de province. Il faut donc créer un moyen de recréer cette barrière, ou se contenter de désinfecter très régulièrement, ce qui peut devenir vite  fastidieux, et pas toujours efficace.

Une solution se dessine dans Journal of Biomedical Materials Research A sous la plume de chercheurs de l’université de Brown. L’idée est simple : reproduire la barrière naturelle de notre corps. Pour cela, il s’agit de texturer l’embout de la prothèse, qui sert de liaison entre l’organique et le moins organique. En appliquant une texture accueillante sur le titane dont est fait le membre artificiel, on peut y faire croître des kératinocytes, des cellules de base de la peau. En substance, on cherche à faire repousser de la peau sur la prothèse afin de le protéger.

Pour cela, deux solutions semblent se dessiner. Tout d’abord, il est possible de soumettre le titane à un bombardement d’électrons. Ainsi, on crée une surface rugueuse à petite échelle, avec une succession de collines et de vallons d’une taille d’à peu près 20 nanomètres. Et les cellules de la peau aiment se nicher dans ses reliefs, et colonisent donc la prothèse plus facilement.

On peut aussi utiliser une processus d’anodisation. Il s’agit dans ce cas de plonger le titane dans un bain d’acide fluorhydrique, comme le premier mafieux venu, et d’y appliquer un fort courant électrique. Ainsi, on va former à la surface de titane des structures tubulaires, qui vont là encore attirer les kératinocytes. Les effets se font rapidement apercevoir, et on arrive ainsi à une couche de peau imperméable.

Enfin, outre ces méthodes d’altération physique, on peut aussi s’aider de facteurs biologiques. Ainsi, en greffant des protéines FGF-2 au titane (via des molécules-relais, pour éviter la désactivation des protéines par le titane), on obtient une densité de peau encore plus grande. Toujours pratique, quand on veut casser trois pattes à un canard.

« Je m’en souviendrai toute ma vie, certain! »

Bon, d’accord, il est possible qu’un bon nombre de soirées trop alcoolisées m’aient fait dire à tord « bien sur, je me souviendrai de tout » plus de fois qu’à mon tour. Cela étant dit, être capable de porter un jugement objectif sur sa propre mémoire, et pire encore, de dire si un moment que l’on est en train de vivre y restera gravé, ça n’a rien d’évident. Pour un exemple plus marquant, repensez aux plus ou moins intenses séances de révision, et surtout, aux moments de stress lorsque vous vous êtes trouvés incapables de répondre sur un sujet que vous pensiez pourtant connaître. En bref, regardons ce que l’expérience peut nous dire sur notre jugement et notre mémoire.

C’est dans la revue Psychological Science et grâce à des chercheurs de plusieurs université (dont UCLA ou la Colorado State University) que l’on peut lire le compte-rendu d’expériences ayant trait à une auto-évaluation des performances d’apprentissage. Trois expériences sont ainsi proposées, et les deux premières sont fort proches. Il s’agit en effet de montrer une série de mots à retenir, écrits en grand ou en plus petit, et de demander au sujet de prédire sa performance, la façon dont il va se souvenir des mots. Chaque mot sera montré une fois ou deux (dans l’expérience 1) et une fois ou quatre (expérience 2). Les chercheurs veulent mesurer l’impact des deux variables (nombre de fois où l’on a montré le mot, et taille de la police). Et comme ils s’y attendaient, les effets ne sont pas les mêmes sur la prédiction de la performance, et sur la performance elle-même. Ainsi, beaucoup de sujets pensent qu’une police plus grande les aidera mieux à se souvenir d’un mot (puisqu’on a moins d’efforts à faire pour le déchiffrer), et cela n’est pas vrai dans les faits. En revanche, il semblerait que nous sous-estimions l’impact du nombre d’apprentissages sur la mémoire. En clair, même si ça ne vous semble servir à rien, n’hésitez pas à relire votre cours une fois de plus.

Dans une troisième expérience, ce sont les croyances que l’on va juger. Pour cela, on présente le protocole de l’expérience précédente, et on demande aux sujets d’estimer l’influence d’un paramètre. Ainsi, on leur dira « Si je suis capable de retenir 40 % des mots en police petite, quel pourcentage de mots écrits en grand retiendrais-je ? ». Là encore, la taille de la police est associée dans l’esprit des gens à un apprentissage plus facile (à tort, donc). Mais ils furent bien plus sensibles au nombre d’apprentissages.

Pour expliquer cela, les psychologues invoquent deux effets. Tout d’abord, nous sommes enclins à penser que si quelque chose est simple à assimiler, alors nous nous en souviendrons longtemps (d’où les erreurs sur l’importance de la taille de la police). En l’occurrence, on se souviendra plus facilement de quelque chose dont on a compris le sens que d’une règle d’apparence simple mais mal comprise. Ceci semble militer pour un apprentissage « intelligent » des cours (dans le sens où il faut chercher à se les approprier, à les comprendre plus qu’à les apprendre). Ensuite, il y a un effet que l’on pourrait appeler « biais de stabilité » : nous avons tendance à estimer que notre mémoire sera dans le futur comme elle l’est au moment présent, en passant outre les différentes sélections qui s’opèrent avec le temps (il nous paraissait impossible à l’époque d’oublier Larusso, et pourtant…). Il faut s’en souvenir, et étudier un peu plus que ce qu’il nous paraît nécessaire.

Petit ralentissement.

Je voulai juste passer un petit mot pour m’excuser du ralentissement dans la publication d’articles, mais les déménagements successifs font que mon accès au net est fortement perturbé (j’ai l’impression d’écrire pour Bison Futé avec tous ces euphémismes). Ca ira mieux d’ici une semaine ou deux, mais en attendant, n’hésitez pas à vous abreuver au C@fé des Sciences.

Le cervelet apprend de ses erreurs.

Souvenez vous, nous en avions discuté à propos des processus de mort programmée, le développement du cerveau et du système nerveux se fait de la façon suivante : un grand nombre de neurones poussent vers une destination, et ceux qui arrivent en retard se suicident. De la même façon, dans le cerveau, de nombreuses connexions doivent se créer entre différents neurones (pour créer des synapses), afin de former des réseaux qui effectueront différentes tâches. Et comme pour aller coloniser des organes éloignés, les neurones effectuent un grand nombre de connexions un peu au hasard, et celles qui ne sont pas bonnes sont supprimées.

Prenons l’exemple du cervelet. Celui-ci reçoit une quantité de signaux sensoriels (la sensation de chaleur ou un stimulus visuel du sexe opposé, par exemple), apportés par les fibres moussues, et va les traiter pour obtenir une réponse motrice appropriée (retirer sa main du feu ou siffler une fille dans la rue). Les fibres moussues doivent délivrer leur message à un type de neurones particulier : les grains. Ceux-ci transfèreront ensuite l’information vers les cellules de Purkinje, d’autres neurones.

En observant grâce à des techniques de microscopie de fluorescence la formation des connexions synaptiques dans le cervelet de souris, l’équipe du Professeur Scheiffele (basée à Bâle et à l’Université de Columbia) a pu mettre en évidence la formation de connexions entre fibres moussues et cellules de Purkinje (sautant ainsi l’étape des grains, indispensable) puis leur disparition. Cela montre que les fibres moussues, bien que ne fonctionnant apparemment qu’an coopération avec les grains, n’ont pas de cibles spécifiques a priori, mais opèrent plutôt par tâtonnement, corrigeant a posteriori ses erreurs. À moins que ces liens fibres moussues-cellules de Purkinje ne jouent un rôle encore inconnu dans le développement du cervelet.

L’équipe de chercheur a aussi pu mettre en lumière la contribution d’une protéine, répondant au doux patronyme de BMP4. Ce nom de scène vient de Bone morphogenetic protein, puisque cette protéine est connue pour son action lors de l’ostéogenèse, où elle participe à la spécialisation des cellules. Cette protéine sert, si l’on en croit les résultats publiés dans PLoS Biology, à restreindre les fibres moussues à la couche où se trouvent les grains, en servant de répulsif aux alentours des cellules de Purkinje. En revanche, cette protéine n’agit pas seule, et il existe de nombreux candidats pour renforcer son rôle.

La plupart des études médicales sont-elles fausses?

Bien que le soufflé Médiator soit un peu en train de retomber, l’affaire n’a rien fait pour améliorer la confiance du grand public envers le monde médical, déjà ébranlée par de pareilles polémiques. Même sans s’embarquer dans les théories complotistes plus ou moins en rapport avec la réalité qui courent sur les liens entre les milieux scientifiques et les grands groupes pharmaceutiques, il faut avouer que toutes les recherches menées ne sont pas présentées (et encore, quand elles le sont au grand public) de la façon la plus limpide, et le doute raisonnable est une position légitime. D’autant que si l’on en croit certains, la majorité des études médicales publiées sont fausses.

C’est en effet le point de vue de John Ioannidis, celui qu’il a exposé dans une publication de 2005 dans PLOS. Le constat de base : beaucoup de résultats publiés ne sont pas reproductibles (voire ici ou ). C’est en soi inquiétant, et le chercheur nous donne plusieurs explications ainsi que quelques pistes pour améliorer cet état de fait. Tout d’abord, inutile de se voiler la face : une partie des études fausses provient bien d’une mauvaise méthodologie. Par exemple, on peut pointer du doigt des études fait sur un très faible nombre de sujets (rappelez vous le lien entre vaccination et autisme, basé sur une étude de 12 cas -avec dans ce cas précis une petite dose de mensonge-), ou des études qui montre un effet très faible.

Mais une autre erreur provient de la façon même dont on évalue généralement les résultats. En effet, on emploie généralement une valeur p de 0.05, c’est à dire que l’on a 5% de chances d’obtenir un faux positif (une étude qui confirmera une hypothèse alors que celle-ci est fausse). Si le risque ne semble pas si élevé, il n’est pas non plus négligeable. De plus, Ioannidis propose quelques pistes simples à garder en tête avant d’aborder une publication médicale :

  • Moins il y a de sujets dans l’étude, plus celle-ci a de chances d’être fausse.
  • Plus l’effet est faible, moins l’étude a de chances d’être vraie : ainsi, les liens entre cancer et consommation de tabac sont bien plus plausibles que l’influence d’un gène sur une maladie multi-génétique.
  • Plus le nombre de paramètres testés est grand, moins l’étude a de chances d’être vraie.
  • Plus les critères sont flexibles, moins l’étude a de chances d’être vraie : cette flexibilité peut en effet faire passer un résultat négatif pour un positif.
  • Plus il y a d’intérêts financiers et de préjugés dans le domaine de l’étude, plus celle-ci a de chances d’être fausse.
  • Plus le sujet est « chaud », moins l’étude a de chances d’être vraie : on pourrait penser que l’effet est inverse puisque le nombre d’équipes différentes est plus élevé, mais les études sont faites au même moment, le timing faisant tout. C’est ainsi que l’on constate souvent un grand enthousiasme pour un domaine après quelques publications phares, suivi du contre-coup une fois les vérifications faites.

L’une des clés pour améliorer la qualité des recherches médicales semble tenir dans l’évaluation de l’hypothèse testée. Ainsi, si une hypothèse a fait l’objet de nombreuses recherches, une nouvelle étude la confirmant aura plus de chances d’être vraie que si cette hypothèse n’a pas été testée ou très peu. Il vaut mieux donc réserver les « grands moyens », des études poussées sur un très grand échantillon, pour des hypothèses sur lesquelles on a déjà une bonne idée, afin de tirer le meilleur profit de l’investissement nécessaire. Enfin, plutôt que de pencher sur une publication il faut voir le domaine dans son ensemble, en tirant parti de méta-analyses.