Overblog
Suivre ce blog Administration + Créer mon blog
21 mai 2013 2 21 /05 /mai /2013 19:13

Ce mardi, le quotidien La Croix consacre son supplément Sciences & éthique au point de vue des écologistes français sur la bioéthique.

Pour Jean-Marie Pelt, fondateur de l'Institut européen d'écologie, "l'écologie, c'est avant tout la conscience qu'il y a des limites à nos interventions sur la nature". Et "cette prudence appliquée au vivant doit s'appliquer a fortiori à l'être humain". Par conséquent, la position "avant-gard[iste]" adoptée par certains parlementaires écologistes, comme l'ouverture de la procréation médicalement assistée aux couples de femmes, l'assouplissement de certains principes relatifs à la gestation pour autrui ou l'autorisation de la recherche sur l'embryon, "le laisse mal à l'aise".

L'agro-écologiste Pierre Rabhi met également en garde: "attention à cette tentation de l'homme démiurge qui prétend mieux faire que la nature". Pour les écologistes, il faut s'interroger sur les limites des techniques, sans renier en bloc leur intérêt, précise la journaliste : "Que doit-on leur confier? A-t-on ou non intérêt à techniciser tel ou tel aspect du vivant? Les rapports humains y gagneront-ils? quels en seraient les effets pervers potentiels?".

Pour Dominique Bourg, philosophe et professeur à l'université de Lausanne ces questions sont d'autant plus jusitifiées lorsqu'il s'agit du corps humain. La journaliste rappelle que très souvent, "les prises de position sur les question de bioéthique sont [...]d'autant plus délicates que la dimension religieuse n'est jamais loin".

A ce propos, Bernard Perret, économiste, spécialiste du développement durable, affirme que "les clivages politiciens en vigueur imposent qu'un écolo ne puisse être ni de droite ni catho". Ce que confirme un élu d'Europe Ecologie les Verts (EELV) : "quand je dis publiquement que je suis pour la défense en toute chose du vivant, on me dit que ça fait 'prolife' ".

Au parlement Européen, la vision écologiste de la bioéthique est plus unitaire. En effet, Alain Lipietz, ancien député européen mentionne: "quand il s'agissait de voter le budget de la recherche, nous avons toujours choisi de remplacer les recherches sur les cellules souches embryonnaires par des recherches sur les cellules souches adultes, tant le risque de manipulation sur la reproduction humaine artificielle est grand".

Partager cet article
Repost0
13 décembre 2011 2 13 /12 /décembre /2011 14:40

http://passeurdesciences.blog.lemonde.fr/2011/12/12/comment-concilier-gout-pour-la-viande-et-amour-des-animaux/

 

Cela s'appelle le "paradoxe de la viande". Dans les pays riches, les très nombreux adeptes du régime carné appartiennent aussi à la catégorie de personnes qui répugneront à faire du mal à un être vivant doté d'un esprit. Par ailleurs, 50 % environ des foyers français et plus de 60 % des foyers américains comptent un ou plusieurs animaux de compagnie, parfois considérés comme des membres à part entière de la famille. On les soigne, on consacre une partie de son budget à les nourrir, on leur parle et on les pleure quand ils disparaissent. Même si manger de la viande est rarement vu, sauf dans le cas des végétariens, comme un choix moral, les carnivores, qui savent parfaitement comment steaks et côtelettes arrivent dans leurs assiettes, doivent donc atténuer la dissonance existant entre leurs pratiques culinaires, leur amour des animaux et leur dégoût de l'abattoir.

Quelle stratégie adopter pour défendre un modèle alimentaire et culturel remis en cause par le végétarisme et la notion selon laquelle les animaux ont des droits (sans compter que la production de viande est de plus en plus souvent montrée du doigt comme un facteur important de l'augmentation des émissions de gaz à effet de serre) ? Comment se débrouille-t-on pour disjoindre la viande de l'animal, pour déguster une bavette d'aloyau bien saignante sans penser au bœuf dont elle a jadis fait partie ou un travers de porc caramélisé sans que l'image de Babe, le gentil cochon devenu berger, vous revienne à l'esprit ? C'est pour répondre à ces questions qu'une équipe australo-britannique de psychologues a mené une série de trois expériences dont les résultats ont été publiés récemment dans la revue Personality and Social Psychology Bulletin. Ces chercheurs sont partie de l'hypothèse selon laquelle il serait plus facile de consommer de la viande en attribuant peu ou pas d'esprit à l'animal dont elle provient. Il est en effet plus facile de dissoudre le conflit moral né du paradoxe de la viande en rapprochant les animaux des choses (et peut-être de l'animal-machine de Descartes), ce qui rend leur ingestion moins embarrassante...

Le premier test, très simple, a donc consisté à demander à un panel d'Australiens d'évaluer les capacités mentales et le caractère comestible d'une petite ménagerie de 32 animaux, aussi bien sauvages que domestiques, parmi lesquels se trouvaient 20 mammifères (étant donné qu'on les voit comme les plus proches des humains sur le plan mental) mais aussi 3 oiseaux, 2 poissons, 3 crustacés, 1 amphibien, 1 reptile, 1 mollusque et 1 insecte. On apprend ainsi avec plus ou moins d'étonnement que le chien, surnommé le meilleur ami de l'homme, est considéré comme le plus pourvu de capacités mentales, légèrement devant notre frère gorille. Ces deux espèces font partie d'un groupe peu comestible parce que doté d'un esprit, qui comprend également, pour des raisons assez évidentes d'image, le chat, le dauphin, le cheval (l'hippophagie n'est pas bien vue dans le monde anglo-saxon même si l'Australie exporte de la viande de cheval...), le lion, l'éléphant et le loup. Sans trop de surprise non plus, on trouve dans la catégorie des animaux à esprit soi-disant faible ou limité un groupe assez compact composé des espèces les plus commercialisées chez les bouchers, volaillers et poissonniers occidentaux : vache, mouton, poulet, poisson, homard, crevette et crabe.

Le deuxième test, réalisé auprès d'un autre panel, était un peu plus subtil. Chaque "candidat" devait regarder deux fiches composées d'une image (une vache dans un pré, un mouton dans un pré) et d'une description. La moitié des personnes interrogées voyait l'image de la vache associée au texte suivant "Cette vache va être déplacée vers d'autres enclos où elle passera le reste de sa vie à manger de l'herbe avec d'autres vaches" et celle du mouton accompagné du moins bucolique "Cet agneau va être conduit à l'abattoir où il sera tué, découpé et envoyé aux supermarchés comme viande pour humains". Comme vous l'avez deviné, l'autre moitié des sondés disposait d'un questionnaire aux légendes interverties. Après lecture des fiches, il fallait évaluer les capacités mentales des deux animaux. En conformité avec les résultats de la première étude, qu'il soit vache ou agneau, l'animal destiné à la boucherie se voyait attribuer des capacités inférieures à celui qui passerait le restant de sa vie à s'ébattre dans les folles prairies de l'insouciance chères à Pierre Desproges.

Pour le troisième et dernier test, les auteurs de l'étude ont mis au point un dispositif complexe en plusieurs étapes. Les "cobayes" étaient recrutés pour un sondage très vague sur "le comportement des consommateurs". On leur demandait, pour commencer, de bien vouloir participer à une étude indépendante de ce qui allait suivre, au cours de laquelle ils regardaient l'image d'une vache ou d'un mouton broutant dans un pré avant d'évaluer ses capacités mentales. S'ensuivait un test de 20 minutes où les personnes effectuaient une tâche sans rapport, histoire de faire diversion. Après quoi, les participants étaient informés que l'étude sur la consommation allait commencer. Ils devraient écrire un texte décrivant la production d'un aliment qu'on leur demanderait de goûter ensuite : pomme (pour établir un groupe témoin), rôti de bœuf (pour ceux qui avaient évalué les capacités mentales du mouton) et gigot d'agneau (pour ceux qui avaient donné leur avis sur l'esprit de la vache). Afin de rendre le scénario réaliste, on mettait devant chacun un plat contenant l'aliment en question. Une fois le texte rédigé, les expérimentateurs, prétextant vouloir mettre à profit le temps nécessaire pour aller chercher des assiettes et des couverts, demandaient à ceux qui avaient vu une vache au début d'évaluer les capacités mentales du mouton, et vice-versa. Là encore, les résultats sont conformes avec les tests précédents. Ceux qui devaient goûter la pomme ont jugé de manière équivalente vache et mouton. En revanche, ceux qui s'étaient préparés à manger du rôti de bœuf ont trouvé que le bovin était moins doté d'esprit que le mouton, tandis que ceux qui avaient le gigot d'agneau sous le nez ont jugé que les vaches étaient nettement plus intelligentes que les moutons...

Toutes ces expériences semblent donc montrer que, pour mettre son âme en paix et résoudre le paradoxe de la viande, le carnivore humain "démentalise" les animaux de boucherie (alors même qu'il "anthropomorphise" les animaux de compagnie). Ce déni d'esprit, disent les auteurs, n'est probablement pas le seul outil dont il dispose dans ce but : le poids de la tradition culturelle est sans doute aussi présent, ainsi qu'une faculté à occulter le lien viande-animal. Ces psychologues suggèrent également de reproduire ce genre de tests dans les pays où l'on mange les animaux, tabous chez nous, que sont le chien et le chat.

Leur travail peut être perçu comme un argument de plus en faveur du végétarisme. Mais c'est un argument à double tranchant : pourquoi ne pas considérer le végétarisme comme le déni d'esprit et de souffrance fait aux plantes ? Depuis quelques années en effet, des botanistes étudient très sérieusement la possibilité que les végétaux, même privés du système nerveux des animaux, aient développé à leur manière une certaine intelligence...

Partager cet article
Repost0
15 juin 2011 3 15 /06 /juin /2011 20:12

Dans une tribune de La Croix, une mère de famille, Marie-Véronique du Pasquier, témoigne de la naissance et de la vie de son fils, Benjamin, âgé de deux ans et porteur de trisomie 21.

Informée au cours de sa grossesse que l'enfant est peut-être porteur de la maladie, Marie-Véronique et son mari font le choix de poursuivre la grossesse, malgré le doute et l'angoisse : "j'ai alors vraiment eu à vivre le doute pour ce qui était à envisager et mes convictions de foi ne m'en ont pas protégée. J'ai eu à poser un vrai choix qui a été de laisser cette vie se poursuivre"

La grossesse est suivie par un personnel médical diversement impliqué. Lors de l’accouchement, à terme mais difficile puisque l'enfant naît violet, le dossier médical n’indiquait rien sur la possibilité d’une naissance d’un enfant atteint de trisomie ni sur les problèmes cardiaques avérés détectés durant la grossesse. Ce sont les parents eux-mêmes qui informent alors l’équipe médicale. Le diagnostic de trisomie 21 ne sera confirmé que quelque jours plus tard et de façon lapidaire.

Seuls, les parents doivent alors prendre l’initiative de s’informer concernant les démarches à suivre, les contacts à prendre et les prises en charge à mettre en place. La jeune mère raconte également comment il fallu annoncer la nouvelle, notamment à leurs autres enfants, l'un d'eux refusant de faire la connaissance de son petit frère car ainsi "s'il mourait, il n'aurait pas de peine".
 
Benjamin a aujourd’hui deux ans, et sa maman se questionne : "Pourquoi les médecins ont-ils peur de la trisomie ? Pourquoi faut-il râler et se battre pour que les droits de Benjamin soient tout simplement respectés ? Pourquoi devons-nous justifier, notamment face à certains médecins, que Benjamin est né, alors, qu’on savait ? […]Nos paroles, dans bien des endroits ne sont pas prises en compte quand il s’agit de Benjamin, comme si l’enfant trisomique ne comptait pas." Mais elle note également combien la vie de leur enfant a enrichi la leur : "nous nous sommes élargis intérieurement", note-t-elle, convaincue de l'importance "de témoigner et d'accueillir le regard des autres quel qu'il soit". Elle explique que Benjamin leur a permis de "découvrir d'autres mondes" et de belles réalités : des médecins "très à l'écoute" ou encore l'Institut Jérôme Lejeune où Benjamin va en consultation tous les semestres.

Pour sa maman, le petit garçon a une vertu propre : il est un petit garçon en devenir. "Dans notre société où les personnes handicapées se laissent peu voir, quelle place est donnée au différent ?"s'inquiète-t-elle.

Partager cet article
Repost0
7 février 2011 1 07 /02 /février /2011 11:38

Le web, justement, est selon lui amené à se diluer pour devenir une seconde nature : « il est raisonnable de penser que dans 50 ans, la distinction entre les ordinateurs et le nuage aura disparu. Il n'y aura plus qu'une force de calcul ubiquitaire si libre et si géniale que les gens penseront que ce n'est qu'un assistant. Elle sait qui vous êtes, elle sait ce que vous faites, elle fait des suggestions, elle vous propose des choses ». Telle est la vision du futur de l'informatiqu

Partager cet article
Repost0
20 septembre 2010 1 20 /09 /septembre /2010 10:47

Tests anténatals : vers un eugénisme industriel ?

Tests anténatals : vers un eugénisme industriel ?Dans Liberté Politique, Pierre-Olivier Arduin revient sur l'actuel travail de perfectionnement des tests de diagnostic prénatal qui fait craindre une forte accélération de l'eugénisme anténatal. Les industries biotech mettent actuellement au point "une méthode fiable de routine" visant à détecter "la plupart des anomalies génétiques et chromosomiques humaines à partir d'une simple prise de sang chez la mère" (Cf. Synthèses de presse d'août 2009, du 30/06/10, du 09/09/10).

On constate que le dépistage de la trisomie 21 est déjà passé à la vitesse supérieure depuis l'arrêté du 23 juin 2009 "fixant les règles de bonnes pratiques en matière de dépistage et de diagnostic prénatals avec utilisation des marqueurs sériques maternels de la trisomie 21" (Cf. Synthèse de presse du 03/07/09). Ce dépistage précoce combine échographie et dosage des marqueurs sériques maternels avant la fin du troisième mois de grossesse. Il consiste en un calcul statistique qui sera suivi d'un diagnostic établi au moyen de méthodes invasives risquées (amniocentèse ou choriocentèse), si le risque est supérieur à 1 sur 250. Dépistage et diagnostic sont encore deux étapes indépendantes dans ce système.

Les recherches actuelles d'un test précoce du sang maternel vise à "faire du dépistage et du diagnostic une seule et même étape". Start-up pharmaceutique et acteurs des biotech sont déjà sur "le pied de guerre pour mettre sur le marché 'le diagnostic prénatal de la trisomie 21 non invasif'", prévoyant des retombées financières juteuses.

En France, le Conseil d'Etat avait pourtant reconnu en 2009 que l'eugénisme pouvait se manifester comme "résultat collectif d’une somme de décisions individuelles convergentes prises par les futurs parents" (Cf. Synthèse du 06/05/09).  Il ajoutait que la suppression de 96% des enfants trisomiques 21 dépistés révélait l'existence d' "une pratique individuelle d'élimination presque systématique".

Le test sanguin se développe actuellement selon deux approches : l'analyse des cellules foetales ou l'analyse de l'ADN foetal recueilli dans le sang maternel. La première utilise une méthode originellement destinée à détecter des cellules tumorales, la méthode ISET (pour isolation by size of epithelial tumor cells). Le test ISET conjugue "une technique de filtrage permettant d’amplifier le taux de cellules fœtales et un séquençage de l’ADN cellulaire recueilli après microdissection". Sa fiabilité pour le dépistage de la mucoviscidose a été validée par une équipe de l'hôpital Necker-Enfants malades, sous la responsabilité du Pr Patrizia Paterlini-Bréchot. Selon celle-ci, cette méthode serait applicable à toute anomalie chromosomique ou maladie génétique. La deuxième approche se fonde sur l'étude de l'ADN foetal extrait du sang maternel et analysé par des séquenceurs à haut débit. Des chercheurs de l'université de Stanford aux Etats-Unis ont commencé de vastes essais pour valider ce procédé.

Des chercheurs entrevoient déjà la mise en place "de plates-formes combinant plusieurs analyses afin de cribler l’essentiel des pathologies génétiques et chromosomiques humaines". "Passer à l'étape industrielle" est la perspective envisagée par de nombreuses firmes.

Une amplification de l'eugénisme anténatal se dessine car "l’alliance monstrueuse entre la discrimination par le génome et l’efficience technique est porteuse d’une puissance considérable de traque des individus 'non conformes'". Pierre-Olivier Arduin évoque le juriste Roberto Adorno qui prévoit les répercussions considérables de l'eugénisme sur les relations interpersonnelles : "les enfants étant de moins en moins désirés pour eux-mêmes, on assisterait selon lui à une transformation progressive de l’idée même de paternité qui deviendra conditionnelle". Il devient plus que nécessaire de considérer à nouveau la condition fragile de l'être humain : " 'seul un monde qui permet aux hommes de vivre et d’être acceptés avec leurs propres handicaps et limites est, à long terme, un monde humain, un monde qui n’exige pas la perfection pour reconnaître le droit de vivre, un monde dans lequel la compassion et l’amour sont appelés à jouer un rôle dans les relations réciproques' ".

Liberté Politique.com (Pierre-Olivier Arduin) 17/09/10

Partager cet article
Repost0
9 septembre 2010 4 09 /09 /septembre /2010 16:27

La Croix 09/09/10 - Le Progres.fr 09/09/10

 

Le 8 septembre 2010, les députés européens ont voté un texte de loi limitant les expérimentations sur les animaux. Ce vote intervient après deux ans de débats opposant les défenseurs de l'abolition de l'expérimentation animale et ceux qui veulent la poursuite de ces expérimentations pour faire avancer la recherche scientifique. Selon ce texte de "compromis", les animaux ne pourront désormais être utilisés que pour les expériences devant faire progresser la recherche sur l'homme, les animaux et les maladies. Ces expérimentations animales devront être remplacées "dans la mesure du possible, par une méthode de substitution scientifiquement satisfaisante", et "la douleur et la souffrance infligées aux animaux devront être réduites au maximum".

Partager cet article
Repost0
1 mai 2010 6 01 /05 /mai /2010 22:39

http://siri.com/blog/the_birth_of_the_virtual_assistant/

by Dag Kittlaus

In the near future, anyone who lives a connected lifestyle will be able to delegate their everyday tasks to intelligent virtual assistants that will coordinate, execute and simplify users’ lives. We will look back on these days and ask ourselves how we ever got by without our trusted assistants, the same way my kids ask in amazement about how we ever got things done before laptops and the Internet.

What Constitutes a Virtual Assistant?

For a long time, Hollywood has been portraying machines that humans can converse with, delegate tasks to, and command. Remember the HAL 9000, KITT the car, COMPUTER from Star Trek, or even the brilliantly conceived and visualized Apple "Knowledge Navigator" from over 20 years ago?

They have symbolized our desire for trusted machine assistants that can help make our lives easier. They have persisted in the creative works of science fiction writers for decades. But have you ever asked yourself why that is? Looking beyond the theatrical and dramatic value of these ideas, the reality is simple — we have always desired more help, less hassle, and higher productivity in our lives.

What about search engines? Aren’t they the modern day version of this? No, at least not the search engines of today.

Search is a fantastic tool to help you find information on the Internet, but try to ask a search engine to actually do something for you. Try typing “get me a seat on the next flight from Chicago to Seattle” and see what happens. Or ask your favorite search engine to book you a table for three at Gibson’s steakhouse in Chicago for the day after tomorrow. Today’s paradigm of 10 blue links doesn’t cut it, and we need a new tool to help.

We need software that is specifically designed to help you get things done — a “Do Engine” rather than a search engine: A virtual assistant.

Intelligent Cohesion of the Tools We Already Use

Here is the good news: The elements, technology and ecosystem needed to build machines and software that can automate many of the mundane tasks of our lives are here already.

We just need to add a little intelligence. It will take some time, maybe 3-5 years, for the concept to mature. But when it does, it will emerge as the most frequently used and trusted online tool. It will make the most common actions on the web as simple as having a conversation. It will integrate into your life, get to know you, and be proactive.

In some sense your smartphone is starting to work like this already. There are already tens of thousands of services, apps, and sites that help you find and do things on the web and in the world. The problem is that they are all islands unto themselves, typically focused on a limited domain, and don’t often work together. They rarely share data or context with each other, have different user interfaces, and require users to spend a good amount of time to discover them, sign up, and get started. In terms of unified personal services, it’s not ideal.

Virtual assistants will help unify these and get them work together at your command. It would be nice to simply pull out your phone one day and tell it to move your 3 p.m. meeting to 5 p.m. and alert everyone invited of the change. That day is coming sooner than you think.

A New Chapter for the Web

There is a direct relationship between simplicity and user engagement on the web. Less clicks means more users — period. When combined with tools like smartphones, virtual assistants will migrate user interactions towards a far more frictionless e-commerce, consumption and collaboration model.

You will soon pick up your phone and start asking your assistant things like “take me to live CNN news,” “send my dad the latest John Grisham book,” or “tell Adam I am running 20 minutes late,” and you will then watch it all happen. This evolution towards simplicity of interaction will reduce the barrier to almost everything you use your mobile device to do.

Furthermore, the device is always with you. The combination of simplicity, impulse opportunity, context, and preference will create the most explosive market opportunity in ages.

This will be a market in which every player along the line wins. Users will be able to click less, enjoy simpler interactions and receive much-needed help getting things done and managing their day. Participating service providers get simpler discovery, more transactions, and higher consumption rates. This then drives more data dollars to networks, fueling infrastructure expansion.

As proof, witness what a cool device called the iPhone (iPhone) has managed to accomplish through a snappy and simple interface with shiny buttons and creative apps. That one device and the competitive response we are now seeing has created a complete transformation in computing.

The Anatomy of the Virtual Assistant

The OS of virtual assistants will be the Internet itself, as Kevin Kelly postulated years ago. The brains will be AIs that are developed by software companies for both general purpose and targeted domains. The arms and legs will be web APIs (many of your favorite brands and services), and the connective tissue will be authentication protocols like OAuth and Open Social, and trust circles like those of Facebook (Facebook).

The rapid maturation of technologies that enable free-form interaction such as natural language processing and speech recognition have vastly improved, to the point of gaining real adoption in many applications today (e.g. Google Speech, Nuance Dragon Dictation, Ford Sync for cars). Virtual assistants will leverage these inputs and begin to integrate them with conversations for a simpler, more natural way to get things done. This concept was best described by the late pioneer from MIT, Michael Dertouzos, who called it “human-centric computing.”

Over the long term, this paradigm will expand to many (or most) of the online services and tools we use to manage our lives like booking, buying, reserving, reminding, and scheduling. As we build trust in our digital “partner” we will put more and more onto its to-do list.

Trust is Key

The vague promises of contextual awareness, personalization, and other generalizations have rarely materialized in real products on the web. We are wary of what personal information we share online, in search engines, and the the never-ending fear of credit card fraud still looms. But this game is changing with the open web.

Mark Zuckerberg is indeed correct that privacy is dead on the Internet among the digital generation. Hundreds of millions of people spend a great deal of time telling the world all about their personal interests and information that forms their “digital face” on sites like Facebook, LinkedIn (LinkedIn), Twitter (Twitter) and others. This will only expand as the demonstrable benefits of this effort become more apparent.

The paradigm shift we will see with virtual assistants is that providing them with access to your preferences, tastes, accounts and more will be the cornerstone of the simplicity they will enable (within a very secure environment, of course). In other words, where we once feared how long search engines kept our personal information, we will now go out of our way to expend time and effort to specifically provide our trusted assistant detailed information about ourselves.

This will be done both manually and via syncing with existing sources of our personal data such as Facebook profiles, iTunes (iTunes) music lists, and contacts. The point is that you will make your virtual assistant definitively yours.

2010 and Beyond

The experience will be like hiring a new assistant that doesn’t yet know you, but eventually becomes so familiar that you can’t live without him or her. Keep your eyes on this space, try out these products as they emerge, and prepare to make your life a bit simpler over the next few years.

As John Battelle has said: “The future of search is a conversation with someone you trust.” 2010 will be the year in which we start to see real progress towards this vision, on many fronts.

Partager cet article
Repost0
14 avril 2010 3 14 /04 /avril /2010 20:22

Dans Marianne, le philosophe Christian Godin évoque les différentes propositions du rapport parlementaire de Jean Leonetti et montre le caractère utilitariste de l'éthique qui sert de plus en plus "une volonté individuelle portée à l'absolu et jamais interrogée". Christian Godin montre comment "la vie et la mort sont devenues des enjeux politiques" et combien la partie qui se joue autour de cette révision de la loi de bioéthique de 2004 est complexe. Il repère cinq acteurs principaux : tout d'abord, "l'Etat, prudent, voudrait un simple toilettage de la loi", et "face à lui, des groupes actifs et influents défendent des positions radicales". Viennent ensuite ceux qui souhaitent le maintien du statu quo, et "les lobbies technoscientifiques qui ont évidemment tout à gagner à l'ouverture des marchés et des consciences, mais aussi tout intérêt à jouer en sourdine". Le cinquième pôle est "l'opinion publique, elle-même partagée, attentiste, pleine de crainte et d'espoir mêlés".

Christian Godin explique que la médecine n'a plus seulement et d'abord une vocation curative, elle "ne se contente plus de soigner et de guérir. [...] elle agit sur les corps de manière de plus en plus intrusive". Désormais, avec la disparition des derniers "verrous moraux et législatifs", "tout ce qui est possible finira par être réalisé". Bien que la France soit parmi les pays les plus rigoureux concernant les choix bioéthiques - avec le maintien de l'interdiction de l'euthanasie active, de la gestation pour autrui (GPA), du clonage reproductif et l'encadrement des recherches sur les embryons - de nombreuses pressions surgissent pour une révision plus "progressiste" de la loi. L'Etat cherche à "consolider les digues tout en admettant certains aménagements" : maintien de l'interdiction de principe de la recherche sur l'embryon mais autorisation à titre dérogatoire "sans détermination de délais"; nécessité de reconnaître dans la loi le caractère médical du recours à l'assistance médicale à la procréation (AMP) mais assouplissement des conditions pour y accéder, avec la suppression de l'exigence de deux ans de vie commune minimum pour les couples pacsés; ajout du dépistage de la trisomie 21 dans le cadre du diagnostic préimplantatoire (DPI) qui pose la question des risques d'eugénisme.

Pour Christian Godin, "alors que la morale reposait sur des principes intangibles, l'éthique évalue au coup par coup en fonction du caractère utile ou non des résultats". La victoire de l'éthique ouvre un nouvel état de fait : "il ne s'agit plus de maintenir des principes mais d'encadrer juridiquement leur transgression". Christian Godin cite l'exemple de l'Agence de la biomédecine qui au cours des quatre dernières années a délivré en France "30 autorisations de recherche sur les cellules souches embryonnaires, au mépris de la loi qui n'autorise ce type de recherche que par dérogation du législateur". Il déplore la manière dont une certaine "gauche prométhéenne voudrait faire croire à l'existence de deux camps : du côté de la lumière, les progressistes, amis de la science, du côté obscurantiste, les réactionnaires inféodés au Pape. Comme si en 2010 nous étions encore du temps de Darwin ! Comme si la science avait encore pour but la recherche de la vérité !" Il constate une infinie "dérive subjectiviste des 'droits à' " chez ceux qui exaltent "l'individu néolibéral qui entend gérer sa vie comme une entreprise" et regardent les droits de l'individu comme des absolus "sans considération des solidarités". Rappelant les propos de Sylviane Agacinski dans son ouvrage Corps en miette au sujet de la GPA dont l'autorisation entraînerait une "marchandisation généralisée du corps féminin et pénaliserait les plus pauvres", Christian Godin dénonce les excès des "croisés du baby business". Plus que dans la "biopolitique" qu'évoquait Michel Foucault, nous sommes entrés dans le "biomarché".

Les options préconisées par la fondation Terra Nova, présidée par la psychanalyste Geneviève Delaisi de Parseval, offre, dans sa relecture progressiste du rapport parlementaire, un "plaidoyer symptomatique"  de cette absolutisation de la volonté individuelle.  Militant pour la création "d'un nouveau type de filiation, entre la filiation naturelle et la filiation adoptive", le contre-rapport de Terra Nova oublie "les différences élémentaires entre volonté et désir, caprice, envie, fantasme [...]. A l'inverse de ce que suggère l'observation la plus élémentaire, la volonté individuelle est supposée éclairée, unique et définitive. Mais le propre d'un contrat n'est-il pas de pouvoir être résilié ? On le voit avec le divorce. Ce qu'une volonté fait, elle peut bien le défaire. Ce que l'on veut aujourd'hui, on peut très bien ne plus le vouloir demain". L'individu de la société post-démocratique est "censé détenir une créance illimitée de droits et tout obstacle, qu'il soit d'ordre physique, social ou légal, tendra à être identifiées à un préjudice". La revendication d'un "droit à fonder une famille" et d'un "droit à l'enfant" mènent ainsi les couples - stériles ou homosexuels - à "ressentir l'impossibilité objective où ils se trouvent de réaliser leurs désirs  comme un déni de droit".

Christian Godin déplore le réexamen régulier de la loi de bioéthique tous les cinq ans par lequel la loi organise par avance sa propre caducité. Cette révision qui se prévoit couronne l'actuel remplacement de la morale par l'éthique qui sert "l'évacuation de l'interdit définitif".

 

Partager cet article
Repost0
13 avril 2010 2 13 /04 /avril /2010 18:43

Dans Le Pèlerin et sur Canalacademie.com, Jean-Marie Le Méné, président de la Fondation Jérôme Lejeune, est interrogé sur la prochaine révision de la loi de bioéthique. Il explique son désaccord avec certaines préconisations du rapport parlementaire remis au gouvernement par Jean Leonetti fin janvier 2010, notamment les modifications ayant trait aux recherches sur les embryons humains, et la proposition d'un dépistage systématique de la trisomie 21 lors d'un diagnostic préimplantatoire (DPI). Il rappelle que jusqu'à présent, la recherche sur l'embryon est interdite, mais accompagnée de deux conditions dérogatoires : cette recherche doit viser des progrès thérapeutiques majeurs et ne peut être poursuivie que s'il n'y a "pas d'autre voie possible pour y parvenir". Or en proposant la suppression de ces conditions limitant la recherche sur les embryons humains, le rapport marque "une rupture grave".  Fondamentalement, c'est le principe du "respect de l'être humain depuis le début de sa vie" qui est en jeu. En effet, "le prélèvement de cellules embryonnaires implique la destruction de l'embryon. Or, l'embryon humain est un membre de l'espèce humaine. Et cela n'est pas une conviction personnelle, mais une observation partagée par de nombreux scientifiques". Jean-Marie Le Méné refuse également ces recherches "au nom de l'efficacité" : les nombreux progrès réalisés depuis 2004 montrent qu'il n'est pas nécessaire d'utiliser des cellules d'embryons humains. 

L'élargissement du DPI au dépistage systématique de la trisomie 21 est inacceptable pour Jean-Marie Le Méné qui fait deux reproches à cette proposition. Dans la loi actuelle, le choix de pratiquer un DPI s'entend dans le cadre du dépistage de maladies graves héréditaires : "un parent est porteur, un frère ou une soeur a, par exemple, la myopathie. On fait donc le choix d'un DPI pour avoir un enfant non touché". Or, l'ajout d'une "indication comme la trisomie 21 est étonnant, car cette dernière n'est pas héréditaire". En deuxième lieu, "effectuer systématiquement le diagnostic de la trisomie 21 à ce niveau de la conception, c'est préjuger que la femme ne voudra pas d'un enfant trisomique. Dans ce cas, pourquoi ne s'en tenir qu'au diagnostic de cette maladie-là ? Il en existe bien d'autres".

Jean-Marie Le Méné revient sur les raisons de son engagement à la Fondation Jérôme Lejeune, ayant eu la chance de côtoyer le Pr. Lejeune, et témoin de la façon dont ce dernier accompagnait ses jeunes patients trisomiques à une époque où, une fois le diagnostic posé, ceux-ci "restaient livrés à eux-mêmes". C'est en constatant le vide laissé après la mort du Pr. Jérôme Lejeune, en 1994, qu'il a voulu, avec d'autres, créer la fondation en 1996, afin de poursuivre son action : "nous donnons une réponse sur les plans médical, scientifique et éthique parce que nous considérons que le plus faible doit être protégé". Aujourd'hui, les médecins de la Fondation Jérôme Lejeune reçoivent près de 5000 patients et effectuent entre 3000 et 4000 consultations par an. Ce suivi permet d'anticiper certaines difficultés de santé : "Par exemple, les enfants trisomiques ont un risque de leucémie plus important. Aujourd'hui, nous savons les diagnostiquer très rapidement et nous pouvons les guérir". Jean-Marie Le Méné explique également où en est la recherche thérapeutique pour la trisomie 21. La Fondation Jérôme Lejeune finance le programme CiBleS21 qui cherche à agir sur "une substance soupçonnée de jouer un rôle dans la déficience mentale". Elle finance aussi une partie des travaux du Pr. Jean Delabar qui ont mis en lumière "le rôle positif du thé vert pour les troubles neurologiques". Une étude réalisée auprès de jeunes patients trisomiques suivis par la Fondation "montre un effet positif du traitement par l'acide folinique, un dérivé de la vitamine B9, sur le développement psychomoteur de certains patients". Toutes ces recherches montrent "qu'on peut faire bouger les choses en matière de traitement. Il y a quinze ans, dès qu'on parlait de trisomie, les gens baissaient le rideau. Depuis quelques années, le monde scientifique est prêt à reconnaître la possibilité d'une perspective thérapeutique".

Alors que 96% des enfants trisomiques dépistés sont avortés, Jean-Marie Le Méné dénonce "la politique de dépistage massif" de l'Etat qui organise un tri eugénique des enfants à naître. Il n'y a pas d'eugénisme de la part des parents explique-t-il mais une "planification étatique d'éradication de la trisomie 21", comme le montre le rapport rendu par la Haute autorité de santé en 2007 qui "contient un nombre incalculable de dispositions qui s'appellent 'stratégies' pour le dépistage de la trisomie 21 avec des statistiques, des contrôles de la performance, des objectifs, des mesures de l'efficacité, etc." Il est "insultant" de prétendre, comme le font les experts, que ce sont les familles qui veulent tout cela : "on amène toute une population à adopter ce point de vue alors que ce n'est pas spontanément celui des gens". Interrogé sur l'audibilité du discours de l'Eglise au sujet de ces questions de bioéthique, Jean-Marie Le Méné affirme que celle-ci "a su adapter son discours à l'évolution des techniques et des moeurs". Il rappelle l'enseignement de Jean-Paul II dans son encyclique Humanae vitae et dans L'Evangile de la vie en 1995, où le Pape exprimait sa conviction que "le progrès technique était positif en lui-même, mais pas l'usage que certains en faisaient". Il cite également les contributions de Mgr d'Ornellas en 1999 lors des états généraux de la bioéthique, et souligne que "l'Eglise est à peu près la seule institution qui demeure cohérente dans sa philosophie et son éthique sur ces questions".

Même si la France est moins libérale que d'autres en matière de bioéthique, Jean-Marie Le Méné cite l'Allemagne et l'Italie dont les législations, qui interdisent le stockage et le tri d'embryons congelés, sont plus respectueuses de la dignité humaine. Il souligne l'exemple de l'Italie qui montre "qu'on peut toujours revenir sur une loi" contrairement à ce que prétend la France. Dans ces questions, "il s'agit de techniques et si on s'aperçoit qu'une technique est mauvaise ou source de déshumanisation, il faut pouvoir revenir dessus".

Partager cet article
Repost0
2 avril 2010 5 02 /04 /avril /2010 18:45

"All models are wrong, but some are useful."

So proclaimed statistician George Box 30 years ago, and he was right. But what choice did we have? Only models, from cosmological equations to theories of human behavior, seemed to be able to consistently, if imperfectly, explain the world around us. Until now. Today companies like Google, which have grown up in an era of massively abundant data, don't have to settle for wrong models. Indeed, they don't have to settle for models at all.

Sixty years ago, digital computers made information readable. Twenty years ago, the Internet made it reachable. Ten years ago, the first search engine crawlers made it a single database. Now Google and like-minded companies are sifting through the most measured age in history, treating this massive corpus as a laboratory of the human condition. They are the children of the Petabyte Age.

The Petabyte Age is different because more is different. Kilobytes were stored on floppy disks. Megabytes were stored on hard disks. Terabytes were stored in disk arrays. Petabytes are stored in the cloud. As we moved along that progression, we went from the folder analogy to the file cabinet analogy to the library analogy to — well, at petabytes we ran out of organizational analogies.

At the petabyte scale, information is not a matter of simple three- and four-dimensional taxonomy and order but of dimensionally agnostic statistics. It calls for an entirely different approach, one that requires us to lose the tether of data as something that can be visualized in its totality. It forces us to view data mathematically first and establish a context for it later. For instance, Google conquered the advertising world with nothing more than applied mathematics. It didn't pretend to know anything about the culture and conventions of advertising — it just assumed that better data, with better analytical tools, would win the day. And Google was right.

Google's founding philosophy is that we don't know why this page is better than that one: If the statistics of incoming links say it is, that's good enough. No semantic or causal analysis is required. That's why Google can translate languages without actually "knowing" them (given equal corpus data, Google can translate Klingon into Farsi as easily as it can translate French into German). And why it can match ads to content without any knowledge or assumptions about the ads or the content.

Speaking at the O'Reilly Emerging Technology Conference this past March, Peter Norvig, Google's research director, offered an update to George Box's maxim: "All models are wrong, and increasingly you can succeed without them."

This is a world where massive amounts of data and applied mathematics replace every other tool that might be brought to bear. Out with every theory of human behavior, from linguistics to sociology. Forget taxonomy, ontology, and psychology. Who knows why people do what they do? The point is they do it, and we can track and measure it with unprecedented fidelity. With enough data, the numbers speak for themselves.

The big target here isn't advertising, though. It's science. The scientific method is built around testable hypotheses. These models, for the most part, are systems visualized in the minds of scientists. The models are then tested, and experiments confirm or falsify theoretical models of how the world works. This is the way science has worked for hundreds of years.

Scientists are trained to recognize that correlation is not causation, that no conclusions should be drawn simply on the basis of correlation between X and Y (it could just be a coincidence). Instead, you must understand the underlying mechanisms that connect the two. Once you have a model, you can connect the data sets with confidence. Data without a model is just noise.

But faced with massive data, this approach to science — hypothesize, model, test — is becoming obsolete. Consider physics: Newtonian models were crude approximations of the truth (wrong at the atomic level, but still useful). A hundred years ago, statistically based quantum mechanics offered a better picture — but quantum mechanics is yet another model, and as such it, too, is flawed, no doubt a caricature of a more complex underlying reality. The reason physics has drifted into theoretical speculation about n-dimensional grand unified models over the past few decades (the "beautiful story" phase of a discipline starved of data) is that we don't know how to run the experiments that would falsify the hypotheses — the energies are too high, the accelerators too expensive, and so on.

Now biology is heading in the same direction. The models we were taught in school about "dominant" and "recessive" genes steering a strictly Mendelian process have turned out to be an even greater simplification of reality than Newton's laws. The discovery of gene-protein interactions and other aspects of epigenetics has challenged the view of DNA as destiny and even introduced evidence that environment can influence inheritable traits, something once considered a genetic impossibility.

In short, the more we learn about biology, the further we find ourselves from a model that can explain it.

There is now a better way. Petabytes allow us to say: "Correlation is enough." We can stop looking for models. We can analyze the data without hypotheses about what it might show. We can throw the numbers into the biggest computing clusters the world has ever seen and let statistical algorithms find patterns where science cannot.

The best practical example of this is the shotgun gene sequencing by J. Craig Venter. Enabled by high-speed sequencers and supercomputers that statistically analyze the data they produce, Venter went from sequencing individual organisms to sequencing entire ecosystems. In 2003, he started sequencing much of the ocean, retracing the voyage of Captain Cook. And in 2005 he started sequencing the air. In the process, he discovered thousands of previously unknown species of bacteria and other life-forms.

If the words "discover a new species" call to mind Darwin and drawings of finches, you may be stuck in the old way of doing science. Venter can tell you almost nothing about the species he found. He doesn't know what they look like, how they live, or much of anything else about their morphology. He doesn't even have their entire genome. All he has is a statistical blip — a unique sequence that, being unlike any other sequence in the database, must represent a new species.

This sequence may correlate with other sequences that resemble those of species we do know more about. In that case, Venter can make some guesses about the animals — that they convert sunlight into energy in a particular way, or that they descended from a common ancestor. But besides that, he has no better model of this species than Google has of your MySpace page. It's just data. By analyzing it with Google-quality computing resources, though, Venter has advanced biology more than anyone else of his generation.

This kind of thinking is poised to go mainstream. In February, the National Science Foundation announced the Cluster Exploratory, a program that funds research designed to run on a large-scale distributed computing platform developed by Google and IBM in conjunction with six pilot universities. The cluster will consist of 1,600 processors, several terabytes of memory, and hundreds of terabytes of storage, along with the software, including IBM's Tivoli and open source versions of Google File System and MapReduce.1 Early CluE projects will include simulations of the brain and the nervous system and other biological research that lies somewhere between wetware and software.

Learning to use a "computer" of this scale may be challenging. But the opportunity is great: The new availability of huge amounts of data, along with the statistical tools to crunch these numbers, offers a whole new way of understanding the world. Correlation supersedes causation, and science can advance even without coherent models, unified theories, or really any mechanistic explanation at all.

There's no reason to cling to our old ways. It's time to ask: What can science learn from Google?

Chris Anderson (canderson@wired.com) is the editor in chief of Wired


Read More http://www.wired.com/science/discoveries/magazine/16-07/pb_theory#ixzz0jxhlJtM3

Partager cet article
Repost0

Articles RÉCents

Liens