• Love him or hate him, he sure hits the nail on the head with this! Bill Gates recently gave a speech at a High School about 11 things they did not and will not learn in school. He talks about how feel-good, politically correct teachings created a generation of kids with no concept of reality and how this concept set them up for failure in the real world.

    Rule 1
    : Life is not fair - get used to it!

    Rule 2
    : The world won't care about your self-esteem. The world will expect you to accomplish something BEFORE you feel good about yourself.

    Rule 3
    : You will NOT make $60,000 a year right out of high school. You won't be a vice-president with a car phone until you earn both.

    Rule 4
    : If you think your teacher is tough, wait till you get a boss.

    Rule 5
    : Flipping burgers is not beneath your dignity. Your Grandparents had a different word for burger flipping: they called it opportunity.

    Rule 6
    : If you mess up, it's not your parents' fault, so don't whine about your mistakes, learn from them.

    Rule 7
    : Before you were born, your parents weren't as boring as they are now. They got that way from paying your bills, cleaning your clothes and listening to you talk about how cool you thought you were. So before you save the rain forest from the parasites of your parent's generation, try delousing the closet in your own room.

    Rule 8
    : Your school may have done away with winners and losers, but life HAS NOT. In some schools, they have abolished failing grades and they'll give you as MANY TIMES as you want to get the right answer. This doesn't bear the slightest resemblance to ANYTHING in real life.

    Rule 9
    : Life is not divided into semesters. You don't get summers off and very few employers are interested in helping you FIND YOURSELF. Do that on your own time.

    Rule 10
    : Television is NOT real life. In real life people actually have to leave the coffee shop and go to jobs.

    Rule 11
    : Be nice to nerds. Chances are you'll end up working for one.

    If you agree, pass it on.
    If you can read this - Thank a teacher!

    votre commentaire
  • Don't waste lab animals

    THOSE of us who support the careful and well-regulated use of animals for scientific and medical advancement are well aware that it remains controversial. Animal experiments are essential for the development of new medicines, and for safety testing, but are vocally opposed by some.

    So it is with growing concern that we read the latest in a string of scientific papers highlighting problems with the way animal research is conducted. The accusation is that animal experiments are too often poorly designed, conducted, reported and reviewed.

    Not only does this give ammunition to the opposition, it allows some to claim that animal studies are a misleading guide to what might happen in humans, and also that animals are suffering needlessly in useless experiments.

    The use of animals is a privilege, and must always be undertaken responsibly. We must therefore face up to these criticisms and assess what needs to be done.

    The use of animals in research is a privilege and must always be undertaken responsibly

    One of the papers causing concern is an analysis of more than 1350 animal experiments on the treatment of stroke (PLoS Biology, vol 8, p e1000344). The authors used statistical tools to predict that a further 214 experiments had been conducted but the results never published - the so called "file drawer problem".

    That is 1 in 7 studies that never see the light of day. The authors concluded that this publication bias has probably distorted the collective findings of the published studies, as research usually remains unpublished because it failed to find any positive effect of a treatment.

    Although the results cannot necessarily be applied across all animal research, it is nonetheless cause for concern. The danger is that humans may be put at risk because potential new medicines are moved into clinical trials prematurely.

    Another paper reveals perhaps an even bigger problem. The authors chose 217 animal studies at random and analysed their quality in terms of experimental design, statistical analysis and reporting of results. Only 59 per cent of the studies stated the objective of the study and the number and types of animals used. More than 80 per cent failed to say whether the researchers used randomisation or blinding - standard tools in much biomedical research (PLoS One, vol 4, p e7824).

    There have been other papers suggesting that many animal studies are poorly designed, using too few animals to be statistically valid, for example.

    One note of caution is that animal studies are highly diverse. Most are part of basic or applied medical research, but animals are also used in pre-clinical safety testing, veterinary development, environmental studies and various types of fundamental research. It would be wrong to suggest that these different types of research should be designed and analysed the same way.

    Even so, these various problems need to be tackled. Doing so will require a willingness to confront the issues and improve practices.

    The first area that needs to be dealt with is publication bias. The non-publication of negative results is a serious problem in many fields of research. Reducing it in animal research would bring clear benefits, not least ensuring a sound basis to move from animal studies into clinical trials.

    The recognition of publication bias in clinical trials involving humans led to the introduction of registration systems to keep track of all relevant trials. It is not inconceivable that we might move towards a similar registration system for animal studies. Initiatives are already under way in some fields of research, with stroke studies a notable example. Collaboration would need to be international, since the missing papers could come from anywhere.

    Journals can help. One prominent publication, the British Medical Journal, now welcomes studies with negative results as long as their research questions are important and relevant. Open-access online publishing also presents opportunities for wider access to the buried data.

    Another area where weaknesses exist and improvements are needed is the way animal studies are written up in journals - failure to report the number of animals used, for example. The UK National Centre for the Replacement, Refinement and Reduction of Animals in Research (NC3Rs) has been working with scientists, journal editors and research funders to develop guidelines. These will set out the basic information that should be included, based on successful guidelines for reporting human clinical research developed by an international group of biomedical researchers and journal editors calledCONSORT.

    The design and statistical analysis of individual experiments also need to be improved. While there are plenty of well-conducted studies out there, ideally every research project - whether using animals or not - should be well-designed and the results analysed using the most appropriate statistical method.

    Funders have a role to play here by checking experimental design. Regulatory authorities could also require the panels who evaluate proposed projects to include sufficient statistical expertise. This measure has been included in the newly revised European Union regulations on animal experiments.

    Many of the initiatives in these areas come from researchers themselves. Far from accepting the status quo, they strive to achieve better scientific results. With effort and education, these difficult issues should be eminently solvable.

    Animal research remains a small but vital part of the biomedical research endeavour. Let's make sure we get it right so that the greatest good is achieved for the least harm to animals.

    Simon Festing is chief executive of Understanding Animal Research, a London-based organisation which seeks to promote understanding and acceptance of the need for humane animal research


    votre commentaire
  • Do you care what happens to a baby's blood sample?

    How would you feel about a sample of blood from your newborn baby being used in medical or forensic research without your knowledge? It's been happening, with little comment, for years. But in two US states, parents and campaigners for privacy recently took health authorities to court for retaining their newborns' blood, and using it for purposes they never agreed to.

    votre commentaire
  • Voici notre palmarès des découvertes scientifiques les plus remarquables de 2009. Plus ou moins fondamentales et plus ou moins susceptibles de donner lieu à des applications concrètes, elles incitent toutes à aller de l’avant. À découvrir en détail dans notre n°437 daté janvier.

    Détourner des cellules pour soigner le diabète. Soigner le diabète à l’aide d’un médicament qui rétablirait la production d’insuline dans le pancréas? Les patients et leurs proches en rêvent. La quête d’une molécule capable de le faire commence, à la suite d’une découverte fondamentale réalisée cette année par une équipe franco-allemande.

    L‘année de l’eau sur la Lune. On a trouvé de l’eau sur la Lune ! Et plutôt deux fois qu’une ! En septembre, une première salve de publications dans la revue Science a montré la présence d’eau à la surface de notre satellite. Et deux mois plus tard, la NASA a annoncé en avoir aussi découvert au fond d’un cratère sous forme de glace.

    Premiers monopôles magnétiques. Des physiciens ont mis en évidence des « monopôles magnétiques » – entités qui ne possèdent qu’un seul pôle, nord ou sud – plus d’un siècle après que leur existence a été prédite par des théoriciens.

    Graisse brune contre graisse blanche. Du tissu adipeux « brun », qui brûle des calories au lieu de les stocker : les nouveau-nés en possèdent, mais on pensait qu’il disparaissait rapidement. La preuve est faite désormais que les adultes en bénéficient aussi.

    Une trace physique de la mémoire. Une expérience originale a permis de démontrer qu’un souvenir particulier est codé, dans le cerveau, par un petit nombre de neurones bien définis.

    La vie a commencé avec l’ARN. Le scénario des origines de la vie sur Terre donnant la première place à l’ARN, ­ une molécule plus simple que l’ADN, ­vient d’être conforté. Des chimistes ont réussi à en synthétiser l’un des constituants.

    Calculer avec des données cryptées. En chiffrant les données que l’on confie à un tiers, on s’assure qu’elles seront conservées en sécurité. Mais jusqu’à présent il était impossible de faire des calculs à distance sur ces données. Le premier algorithme de chiffrement permettant de les manipuler à loisir a été découvert cette année.

    Des clones encore plus ressemblants. Jusqu’à présent cloner un animal nécessitait de disposer d’ovocytes. Mais une nouvelle méthode permet de s’en dispenser. Elle fait appel aux « cellules souches pluripotentes induites » pour créer des clones d’un nouveau genre.

    Les Chinois ne sont pas seuls à avoir inventé la soie. La découverte de fibres de soie au Pakistan remet en question l’idée que la Chine en ait inventée seule la fabrication.

    Trois nouveaux gènes associés à la maladie d’Alzheimer. La découverte de nouveaux facteurs de risque génétiques dans la maladie d’Alzheimer ouvre des pistes aux scientifiques.


    La Recherche


    votre commentaire
  • Depuis 1901, date de sa création, le Nobel est l’étalon-or de la science. Comment est-il devenu à ce point renommé et incontestable ? (© Nobel Foundation)


    Pourquoi le prix Nobel jouit-il d’un tel prestige ? Certes, les lauréats sont dans l’ensemble talentueux et méritent notre admiration. Mais leur élévation au statut d’élite se distinguant qualitativement des autres peut intriguer. Recevoir un prix Nobel a été - et reste sans doute - une référence discutable. Et s’il n’y a pas de mal à avoir des « héros » en science, nous devons comprendre sur quels critères ceux que nous sommes prêts à vénérer ont été sélectionnés.

    L’explication du culte voué au Prix ne se trouve pas dans la liste des lauréats mais dans l’histoire de la science et de la culture du XXe siècle. Au début du siècle dernier, en effet, les Européens étaient disposés à croire en des olympiades impartiales de la culture. À cette époque où le darwinisme social dominait la pensée occidentale, la culture était conçue comme une résultante biologique. Les nations et les « races supérieures » s’affrontaient pacifiquement pour trouver leur place dans la hiérarchie de « l’aptitude » la plus évoluée. Et la compétition stimulait le progrès. C’est cette conception de la culture qui explique l’engouement suscité par le prix Nobel. Dès sa création en 1901, ce dernier a été considéré comme la première compétition internationale car elle se déroulait sur un terrain présumé équitable, où les nations pouvaient faire la preuve de leur droit à être honorées pour leur contribution au progrès collectif de la civilisation.

    L’enthousiasme était réel, avant même l’annonce des premiers Prix. Naturellement, l’énorme somme d’argent en jeu fascinait, et si l’on veut comprendre en partie pourquoi le Prix a été rapidement élevé au rang de référence proche du mythe, il faut se rappeler le commentaire narquois de Gustaf Mittag Leffler, membre de l’Académie royale des sciences de Suède, en 1903 : « La mentalité bourgeoise convertit les plus grosses sommes d’argent en prestige [1] . » Sur un même plan, l’extravagante cérémonie et la présence des souverains suédois flattaient les sensibilités « fin de siècle ». Le faste définissait l’événement, et le Prix devint une sorte d’étalon-or, bien avant la constitution de la liste des lauréats.

    Fierté nationale

    Le président du Comité du prix de chimie, Olof Hammarsten, ne fut pas le seul surpris par cette notoriété si vite acquise. En privé, il reconnaissait pourtant que le prix Nobel était probablement une forme de reconnaissance moins prestigieuse que de nombreuses autres récompenses [2] . Il déplorait aussi certaines restrictions dictées par les statuts du Prix, telles que l’obligation de ne récompenser que des découvertes. Ainsi, un scientifique ayant une carrière marquée par l’excellence et ponctuée par des contributions ayant aidé à définir le front de recherche pouvait être éclipsé par un scientifique de moindre envergure mais auteur d’une découverte opportune et spectaculaire, ayant frappé l’esprit d’un membre influent du Comité.

    Dès le début, les médias de l’époque contribuèrent à l’engouement pour le Prix et à sa transformation en un événement public : les prix Nobel comptaient parmi les honneurs affichés et reconnus sur la scène internationale, au même titre que les médailles olympiques, les possessions coloniales et les expéditions audacieuses. Ils témoignaient de « l’aptitude » d’un pays et nourrissaient la fierté nationale. Même après que la Première Guerre mondiale eut affaibli la croyance en l’efficacité d’une compétition pacifique entre nations et que les sciences eurent récusé la notion d’origine biologique de la culture, la quête de l’honneur national perdura.

    Avec le temps, le prix Nobel vint aussi alimenter un nombre croissant de discussions visant à asseoir son prestige et attirer des financements. Les chercheurs et la presse d’Allemagne saluèrent ainsi les nombreux prix scientifiques remportés par leur pays en 1919 comme une manifestation de la supériorité culturelle allemande, malgré le traumatisme de la défaite militaire de 1918. Même chose aux États-Unis où le Prix attribué à Robert Millikan en 1923 fut interprété au niveau local comme la démonstration que Cal Tech et l’université de Californie du Sud étaient devenus des bastions du génie anglo-saxon, par opposition aux universités de la côte Est, « contaminées » par les immigrants. Et quand Berkeley commença aussi à se distinguer, certains y virent la preuve que les établissements publics américains étaient capables de rivaliser avec l’élite traditionnelle des universités privées.

    Même les personnes chargées de proposer des candidats - qui étaient conscientes des actions parfois peu honorables se déroulant en coulisses, ou qui reconnaissaient les limites scientifiques de certains membres des comités - continuaient à soumettre des noms. Remporter le Nobel pouvait se transformer en atout important pour le chercheur, l’institution locale, la spécialité étudiée et la communauté scientifique d’un pays. La foi en l’existence d’un prix international impartial était trop exaltante pour être abjurée. Et cette récompense représentait un outil trop précieux pour être abandonné, même en proie aux plus gros doutes.

    Lauréats omniscients

    Avec le temps, le nombre d’institutions ayant intérêt à conforter la foi dans le Nobel augmenta. Les interactions entre les médias, les chefs de file du monde scientifique et les responsables politiques et universitaires contribuèrent à créer et à entretenir le culte. Dans les années 1940, Theodor Svedberg, membre du Comité du prix de chimie, visita les États-Unis et fut surpris de constater que les lauréats du prix Nobel, élevés au rang de génies, étaient consultés pour tout, des problèmes sociaux à la stratégie militaire [3] .

    Et pourtant rien ne laisse supposer que ces lauréats forment une population à part, rassemblant les meilleurs d’entre les meilleurs. Certains des plus grands triomphes intellectuels du siècle, dont de nombreuses découvertes en physique, chimie et médecine, n’ont pas été célébrés à Stockholm. Il est inutile de jongler avec les statistiques des nominations pour expliquer les attributions du Prix.

    Des critères fluctuants

    Il faut par ailleurs reconnaître que les personnes chargées de proposer des candidats ont rarement donné des instructions claires. Et le cas échéant, les comités ont souvent dédaigné ces candidats consensuels. Certains lauréats n’ont été nominés qu’une fois, comme les chimistes Arthur Harden et Harold Urey. De même, le succès ou l’échec ne peuvent s’expliquer par des critères d’excellence intemporels et figés. Au contraire, les changements dans les priorités et les intentions des membres des comités, ainsi que leur conception de la réussite scientifique, ont joué un rôle crucial.

    Les comités Nobel ressemblent à tous les autres comités : ils ne fonctionnent pas en vase clos, et les questions relatives au Prix peuvent subir des influences locales. Pendant les premières décennies, par exemple, le comité Nobel de physique était dominé par les physiciens suédois, qui avaient un parti pris pour la physique expérimentale. Si cette orientation a pu avantager certains candidats, elle a aussi porté tort à d’autres.

    En 1911, Vilhelm Carlheim-Gyllensköld, nouveau venu dans ce Comité, fit remarquer que la physique théorique avait été négligée alors que d’éminents représentants de la discipline avaient été proposés, comme Ludwig Blotzmann, Oliver Heaviside, Max Planck ou Henri Poincaré [4] . Malgré cela, le Comité persista à ignorer les nominations de plus en plus fréquentes de Planck et de la théorie quantique, ou d’autres spécialistes de la physique théorique. Le Prix finalement accordé à Planck en 1919 représentait plus le souhait de récompenser le chef de file de la science allemande à une époque où le pays était plongé en pleine tragédie qu’une reconnaissance de la théorie quantique encore balbutiante, suspecte aux yeux du Comité.

    De temps à autre, des factions au sein de l’Académie des sciences suédoise se rebellaient contre les priorités des comités, en particulier quand les propositions de ceux-ci ne recueillaient pas l’unanimité. Il arrivait aux comités de choisir et d’éliminer des candidats plus dans le but d’aboutir à un consensus que sur la base du seul mérite.

    L’exemple du prix Nobel de physique attribué à Jean Perrin montre la part d’imprévu qui peut s’immiscer dans les délibérations. Alors qu’ils avaient terminé leur travail pour 1926, les cinq membres suédois du comité Nobel de physique étaient inquiets car ils avaient recommandé à l’Académie des sciences de ne décerner aucun Prix cette année-là, faute de candidat méritant. À l’approche du vote des cent membres de l’Académie des sciences sur les propositions du Comité, il y avait de la rébellion dans l’air : plusieurs membres, dont Carl Benedicks, n’étaient pas d’accord avec l’option choisie par le Comité [5] . Certes, la physique atomique traversait une période de confusion à cause de la physique quantique, mais plusieurs candidats « méritants », tels que James Franck, Arthur Compton et Arnold Sommerfeld, avaient bel et bien été désignés par des membres extérieurs. Benedicks et les autres accusaient le Comité d’appliquer les statuts de manière fantaisiste en fonction de leurs propres priorités, et ils estimaient que la célébration du 25e anniversaire du prix Nobel serait gâchée si aucun Prix n’était remis en physique.

    Le Comité chahuté

    Benedicks entretenait de bonnes relations avec certains scientifiques français et souhaitait aussi faire reconnaître des travaux qui ne portaient pas sur la nouvelle physique quantique. Pour lui, le Comité avait plusieurs fois négligé la candidature du Français Jean Perrin, qui, vingt ans plus tôt, avait apporté une preuve de l’existence des atomes par son travail sur le mouvement brownien. Il entreprit donc de braver la proposition du Comité et soumit son propre candidat, d’abord devant les dix membres de la section Physique de l’Académie chargés de se prononcer sur la proposition du Comité, et ensuite devant l’ensemble de l’Académie des sciences.

    Des rumeurs selon lesquelles leur jugement était remis en question arrivèrent aux oreilles des membres du Comité. L’Académie pouvait-elle passer outre la compétence du Comité du prix de physique, comme elle l’avait déjà fait ? Les membres du Comité se mirent d’accord qu’en aucun cas Perrin ne devait recevoir le Prix puisqu’ils l’avaient déjà écarté à plusieurs reprises. À la dernière minute, le Comité proposa de remettre le Prix de 1925, qui n’avait pas été attribué, à Franck et Hertz, mais il resta inflexible sur la non-attribution du Prix de 1926. Ainsi, le Comité pensait avoir contenté l’Académie et écarté la menace de rébellion [6] .

    Qu’à cela ne tienne, Benedicks proposa Perrin pour le Prix de 1926 sans tenir compte de l’avis du Comité. De longues discussions s’ensuivirent, et l’Académie des sciences finit par permettre à Perrin d’obtenir le Prix. Il fallait toutefois maintenir l’illusion que le choix avait été évident et unanime, et on ne pouvait envisager rien de moins qu’une réception somptueuse pour tous les lauréats. Ainsi, même les membres du Comité de physique qui s’étaient prononcés contre Perrin lui envoyèrent des télégrammes, l’invitant à dîner chez eux lors de sa venue à Stockholm !

    L’histoire des Prix pendant l’entre-deux-guerres montre en outre comment une personne influente peut orienter le résultat. En 1922, après avoir désamorcé la crise concernant Einstein, Carl Oseen, spécialiste de la physique théorique, apparut comme l’homme fort du Comité de physique. En effet, malgré l’extraordinaire soutien international dont bénéficiaient Einstein et ses travaux sur la théorie de la relativité, le Comité avait refusé à plusieurs reprises de reconnaître son travail digne d’un Prix (lire l’article p. 42). Pour sa part, Oseen voulait récompenser Einstein, mais pour d’autres travaux.

    Oseen fut le seul à proposer Einstein pour la découverte de la loi de l’effet photoélectrique. En 1922, il expliqua au Comité que la loi avait été reconnue comme une loi fondamentale de la nature, indépendamment du problème posé par la dérivation théorique d’Einstein, d’où il avait tiré sa notion de photon. Il récusa ensuite l’argument du Comité selon lequel le modèle atomique de Bohr était contradictoire avec la réalité physique en argumentant qu’il était fondé sur la loi de l’effet photoélectrique [7] .

    Plus tard, les capacités d’analyse affûtées d’Oseen, complétées par une dose d’arrogance, l’amenèrent à jouer le rôle d’avocat général, de juré, de juge et de bourreau pour les candidats qu’il évaluait. Son exigence pour la rigueur conduisit le Comité à faire volte-face et à exclure l’astrophysique et la géophysique.

    Dans le même temps, le Comité de chimie avait depuis près de trois décennies des difficultés à trouver des candidats et des résultats qui se distinguaient des autres. Il aboutissait rarement à un accord sur un nom et, à plusieurs reprises, les candidats avaient été choisis uniquement pour calmer les esprits.

    Frontières repoussées

    Quand, en 1930, Theodor Svedberg et Hans von Euler, deux scientifiques motivés et doués, rejoignirent le Comité de chimie en proie à ses querelles intestines, ils apportèrent leurs qualités de meneurs, mais ils entendirent aussi défendre leurs propres priorités de recherche. Ainsi, ils poussèrent les frontières de la chimie jusqu’à la recherche biomédicale. Ceux qui souhaitaient récompenser les travaux sur les principes fondamentaux de la chimie - avec des candidats comme G. N. Lewis, Niels Bjerrum, ou J. N. Brönsted - avaient peu de chances d’y parvenir.

    Après la Seconde Guerre mondiale, le développement du nombre de scientifiques et de spécialités au sein de chaque discipline, ainsi que l’augmentation des budgets de recherche vinrent compliquer la désignation des sommités des communautés scientifiques nationales et internationales. Le prestige et l’autorité accordés à certains scientifiques peuvent expliquer pourquoi Otto Hahn reçut un Prix seul ; ou pourquoi des candidats écartés comme E. V. Appleton, P. M. S. Blackett et John Cockcroft, reçurent finalement un Prix, en dépit d’une découverte nouvelle.

    Par ailleurs, certains membres du Comité rejoignirent des réseaux de recherche transnationaux, et la fidélité à ces sous-spécialités posait de nouveaux problèmes d’impartialité. Même si les comités sont désormais disposés à déléguer à des étrangers la responsabilité d’évaluer des candidats pour des domaines que les Suédois maîtrisent mal, il n’existe pas de ligne de démarcation magique, dans le cas du prix Nobel, entre un passé subjectif et un présent prétendument impartial et parfait.


    Robert M. Friedman

    votre commentaire

    Suivre le flux RSS des articles de cette rubrique
    Suivre le flux RSS des commentaires de cette rubrique