In the Beginning Was Information de Werner Gitt

In the Beginning Was Information de Werner Gitt

31 décembre 2015 Non Par admin1538

0,00

Dans son livre In the Beginning Was Information, Werner Gitt montre minutieusement que tout modèle d’origine de la vie (et de l’information) basé uniquement sur des processus physiques ou chimiques est par nature faux. Louis Pasteur a énoncé un truisme qui n’a jamais été réfuté : “La vie ne peut venir que de la vie.”

Gitt, Werner (2000) In the Beginning Was Information. Bielefeld : CLV. Seconde édition. 256 pages. 

Ebook PDF en version anglaise téléchargeable gratuitement.

Dr Werner Gitt

Werner Gitt est né en 1937 à Raineck, en Prusse orientale (Allemagne). En 1963, il s’inscrit à l’Université technique de Hanovre et en 1968 il termine ses études d’ingénieur. Par la suite, il travaillera comme assistant à l’Institut de contrôle de la technologie de l’Université Technique d’Aix-la-Chapelle/Aachen. Après deux années de recherches, il reçoit son doctorat en électronique en 1971 au même moment qu’il reçoit la prestigieuse médaille Borchers de l’Université Technique d’Aix-la-Chapelle. Gitt commence alors sa carrière à l’Institut fédéral de physique et de la technologie (Physikalisch-Technische Bundesanstalt Braunschweig, “PTB”), à Brunswick. En 1978, il est promu au rang de directeur et professeur au l’PTB. De 1971 à 2002, il a été le directeur de la section “technologie de l’information”.

Gitt a rédigé de nombreux articles scientifiques dans le domaine des sciences de l’information, ainsi que beaucoup d’autres touchant aux mathématiques et aux technologies de contrôle. Il a présenté des conférences sur ces sujets dans de nombreuses universités, en Allemagne et à l’étranger. Depuis 1984, il est conférencier invité de l’Université d’État indépendante de théologie de Bâle, en Suisse, sur le thème “la Bible et la science”. Il aborde le thème “Foi et Science” sur les cinq continents et dans de nombreux pays.

Description

Recension du livre par Paul Gosselin

Le livre de Gitt est structuré en trois grandes sections, soit : I) Les lois de la nature ; II) L’information et III) L’application du concept de l’information à la Bible. Gitt propose également trois annexes discutant des différentes perceptions de l’information en sciences, du langage comme code et comme support de stockage et de l’énergie. Discutant du concept d’information proposé par Shannon, Gitt note (2001 : 170)

Sa mesure de l’information, le “ bit ” (binary digit), avait l’avantage que les propriétés quantitatives d’une séquence de symboles peuvent être formulées. L’inconvénient est tout aussi évident : la définition de Shannon de l’information n’examine qu’un aspect mineur de la nature de l’information, comme nous le verrons en détail. La seule valeur de cet aspect particulier est de permettre de comprendre le processus de transmission et de stockage. Les questions du sens, de l’intelligibilité, de la justesse, de la valeur ou de l’inutilité ne sont pas considérées du tout. Les questions importantes sur l’origine (le transmetteur) et de sa destination (le récepteur) sont également ignorées. Car pour le concept de l’information de Shannon il est complètement indifférent de savoir si une séquence de symboles représente un texte extrêmement important et significatif ou si elle a été produite par un processus aléatoire. Il peut sembler paradoxal, mais dans cette théorie une séquence aléatoire de symboles représente la valeur maximale du contenu de l’information et la valeur correspondante ou quantitative d’un texte significatif de la même longueur sera plus faible.

En anecdote, Gitt relate (2001 : 45) le commentaire ironique d’un chercheur allemand au sujet du concept d’information de Shannon : “La théorie classique de l’information peut être comparée à l’affirmation qu’un kilo d’or a la même valeur qu’un kilo de sable! ” Effectivement, si l’on choisit de manière arbitraire un référent, tout s’équivaut… La signification du message n’a pas de place dans l’analyse de Shannon. Gitt, pour sa part, explique la chose de la manière suivante (Gitt 2001 : 116) :

La théorie de l’information de Shannon peut être considérée comme une extension de la théorie des probabilités. Il propose le bit comme l’unité de mesure de l’information, et ainsi un livre de 200 pages contient alors deux fois plus d’informations qu’un autre livre de 100 pages, si les pages contiennent le même nombre de lettres. La question de la signification est totalement ignorée. Wolfgang Feitscher a offert une description frappante de cette situation : “Lorsque l’on considère l’information sémantique, nous sommes comme un chimiste qui peut peser les substances, mais ne peut les analyser.” En ce sens, Shannon a résolu le problème de la pesée (ou la quantification) de l’information, mais la question de l’analyse n’a pas été abordée. Pour dépasser la théorie de Shannon, il est nécessaire de proposer des mesures de l’information sémantique qui doivent être valides de manière générale. Nous allons maintenant discuter de certains aspects qui pourront ouvrir la voie pour résoudre ce problème difficile (traduction par Paul Gosselin.)

Ainsi, nous voyons que la question de la communication comporte plusieurs niveaux de complexité, niveaux qui posent tous problème pour le discours évolutionniste.
On le constate rapidement, la définition de l’information de Shannon n’examine que le niveau statistique ou quantitatif de la transmission de l’information. La définition de l’information de Shannon plaît aux évolutionnistes, car elle leur permet d’ignorer la question de fond, à savoir que ce qui est transmis doit être significatif. Dans son exposé classique sur le théorie de la communication, Shannon dit lui-même (1948 : 379) :

Le problème fondamental de la communication est celui de la reproduction à un moment précis ou approximatif d’un message sélectionné à un autre moment. Fréquemment, les messages ont un sens, c’est-à-dire qu’ils réfèrent ou sont corrélés, selon un certain système, à certaines entités physiques ou conceptuelles. Ces aspects sémantiques de la communication sont sans rapport avec la problématique traitée par les ingénieurs.

Mais il faut comprendre que Shannon examine la communication du point de vue de l’ingénieur qui veut exploiter au maximum la capacité de transmission d’un canal. Cela vise donc la compression du signal comme dans un fichier traité par Winzip ou Stuffit. Shannon se préoccupe donc d’une question légitime et nécessaire, mais qui est loin d’épuiser la question de la communication, peu importe le contexte, que ce soit dans le monde humain ou dans le monde biologique. L’on peut noter que Shannon ne mentionne pas ci-dessus la biologie ici, mais il existe un lien entre son affirmation et la biologie, car lors de la reproduction des instructions spécifiques sont nécessaires afin d’obtenir des structures biologiques spécifiques, qu’il s’agisse d’ailes, du processus en cascade de la coagulation ou d’une plaque photosensible dans un organisme unicellulaire. Dans un contexte d’ingénierie, si un entrepreneur veut construire un pont et que l’on lui remet les plans pour une cabine de toilettes, il est plutôt probable que son projet n’ira pas très loin…
Et sans pousser à fond l’analyse présentée par Gitt dans son livre, voici un schéma qu’il propose exposant les cinq niveaux caractérisant la communication.

Gitt: Five layers of information

Manifestement, cela n’épuise pas la question, mais le discours évolutionniste reste irrémédiablement bloqué sur cette question, car s’aventurer plus loin poserait immédiatement des problèmes très sérieux. Si l’ADN est un message, quelle (ou Qui) est la source de ce message ? Et si le monde biologique est rempli de programmes, qui est le grand Programmeur ? Et c’est de ce blocage qu’est né le mythe évolutionniste qui postule l’émergence de l’ordre à partir du bruit. En d’autres termes, cela signifie un message, mais sans auteur. Dans le monde francophone, l’on trouve évidemment chez les évolutionnistes plusieurs défenseurs de ce mythe. L’on trouve, par exemple, des recherches scientifiques sur ces questions, telles que celles de Manfred Eigen , Henri Atlan et Ilya Prigogine. De l’avis du bioinformaticien américain, Hubert Yockey, ces expériences sont un cul-de-sac. Il note (Yockey 1977: 380) : “ Les tentatives de lier l’idée de l’ordre contenu dans un cristal à l’organisation ou à la spécificité biologique doit êtres considérées comme un jeu de mots qui ne peut soutenir un examen sérieux.” Voici un commentaire du mathématicien français Marcel-Paul Schützenberger sur l’intérêt de ces recherches sur l’apparition de l’ordre à partir du bruit, c’est-à-dire de l’information apparaissant miraculeusement sans auteur ni programmeur (1996 : 90) :
Je faisais allusion à une succession de gens fort compétents qui ont su trouver des expressions poétiques et creuses qui n’expliquent rien. C’est l’ordre par le bruit des cybernéticiens, les structures dissipatives d’un Prigogine, le systémisme d’un Varela, et maintenant le “bord du chaos” de Stuart Kauffman dont l’inanité sonore va bientôt nous parvenir en France. Ces écoles mettent la complexité à toutes les sauces. Elles évoquent à l’appui de leur démarche des exemples comme certaines réactions chimiques, le dessin d’une côte maritime, les turbulences atmosphériques ou la structure d’une chaîne de montagnes, dont la complexité est certes très grande, mais qui repose, au regard du monde vivant, sur un type d’organisation très pauvre, en tout cas non fonctionnelle [1]. Aucun algorithme ne nous permet d’appréhender la complexité du vivant, qui contrairement à tous ces exemples empruntés au monde physico-chimique est de nature fonctionnelle.
Voici un autre diagramme proposé par Gitt dans In the Beginning Was Information (2001: 98). Il expose le caractère interdépendant des processus génétiques. L’ADN dépend des protéines, qui dépendent pour leur structure de l’ARN et l’ARN dépend pour sa structure de l’ADN.

Gitt: Le cercle de la vie: protéines, ADN, ARN

Sur le plan logique, c’est le probème classique de la poule et l’oeuf. Lequel est venu en premier ? Mais sur le plan de la génétique, c’est bien plus compliqué encore. Tous les morceaux du puzzle doivent être en place dès le début, sinon toutes ces structures seront vaines. De l’avis de Gitt, c’est un indice de plus que la main du Créateur a dû mettre cela en marche au début de toutes choses. Et si l’on ose poser la question de l’origine de toute l’information des génomes, alors là les choses deviennent bien plus intéressantes encore…
En terminant, je laisse le lecteur avec une pensée provenant d’un programmeur et ingénieur informatique fort compétent. Dans son livre The Road Ahead, Bill Gates affirme (1996 : 288) “L’ADN est comme un logiciel, mais bien, bien plus avancé que tout type de logiciel que nous avons créé jusqu’ici.”


Références

GATES, Bill (1996) The Road Ahead. (Edition révisée.) Blue Penguin Boulder CO.
SHANNON, Claude E. (1948) A Mathematical Theory of Communication. The Bell System Technical Journal, Vol. 27, pp. 379–423, 623–656, juillet, cctobre.
SCHüTZENBERGER, Marcel-Paul (1996) Entretien : Les failles du darwinisme. (Propos recueillis par Olivier Postel-Vinay), pp. 87-90. La Recherche, vol 96, n° 1.
YOCKEY, Hubert (1977) A Calculation of the Probability of Spontaneous Biogenesis by Information, pp. 377-398 Theory. Journal of Theoretical Biology, n° 67.


Notes

[1] – Du point de vue de la thermodynamique, ces structures sont des culs-de-sac, car elles sont incapables d’aucun travail utile. Du frimas sur une fenêtre en hiver au Québec, c’est joli, mais cela ne peut accomplir aucun travail utile. Ce sont des bibelots. Une structure fonctionnelle, comme la cellule, a la capacité de faire un travail utile et identifiable et de plus peut se reproduire. À ce titre, le cristal n’est pas une structure fonctionnelle, car bien qu’il comporte une forme de complexité (moléculaire), il ne peut accomplir un travail utile.

Informations complémentaires

source

www.werner-gitt.de/down_eng.html

editeur

CLV Bielefeld

pages

256

langue

Anglais