Comment définir un rythme par une méthodologie scientifique par Jean de Prins

Les Rythmes, lectures et théories, sous la direction de J.J. Wunenburger
Centre culturel international de Cerisy, "Conversciences", p 57-65, L'Harmattan, ISBN 2-7384-1355-2 Copyright(c) L'Harmattan

 

L'observation de tout être vivant permet de constater que les manifestations d'activités ne sont pas constantes dans le temps. Une étude simple peut se faire par la mesure d'une variable (température, pression artérielle, activité) et un report graphique des valeurs mesurées au cours du temps. Assez souvent, l'observateur décèlera un motif se répétant plus ou moins régulièrement et il estimera raisonnable de le qualifier de "rythme biologique". La durée de ce motif peut varier dans de très larges limites, depuis l'année à quelques centièmes de seconde. Très rapidement, de nombreuses questions se posent à l'expérimentateur. La forme de ce motif est-elle régulières Quelle est l'amplitude moyenne de ce motif ? Le motif est-il synchronisé par le monde extérieur? Le rythme est-il exogène ou endogène? Pour répondre à toutes ces questions, l'observateur désirera caractériser le phénomène à l'aide de paramètres objectifs donnant un maximum d'informations. L'estimation de ces paramètres requiert la mise au point d'une méthodologie, basée sur des concepts clairs et précis. Ceux-ci permettront la réalisation d'algorithmes (ou procédures de calcul) qui, à partir des valeurs mesurées, sont censés donner une évaluation pertinente des paramètres choisis. Cette procédure constituera le "traitement des données", étant entendu que les valeurs mesurées forment ce qui est improprement dénommé les "données" En effet, ces valeurs ne sont pas "données" et, au contraire, sont souvent sujettes à caution. Leur critique fait partie de la procédure.

 

I. TRAITEMENT DES DONNÉES

Il s'agit d'une procédure délicate, car les concepts et algorithmes sont interdépendants. Même si la présentation fait appel au langage mathématique et est basée sur des théories mathématiques, le traitement des données ne constitue pas une théorie déductive mathématique. En effet, il ne suffit pas de poser une hypothèse, encore faut-il qu'elle soit plausible dans le contexte expérimental choisi. Comme nous allons le constater, les difficultés vont apparaître lors des applications. Certaines hypothèses, posées dans le cadre strict des mathématiques, ne sont pas vérifiées ou vérifiables dans les circonstances expérimentales entachées d'approximations et de situations "floues". Ce problème est souvent éludé, et dès lors des résultats sont publiés comme étant "mathématiquement" démontrés, alors que nul n'est apte à établir que la théorie utilisée est pertinente. Considérons les conditions typiques rencontrées en biologie. L'expérimentateur observe une variable en fonction du temps. Il mesure un nombre N de couples de valeurs (yi, ti) où yi est la ième valeur mesurée de la variable au moment ti. Les valeurs de ti peuvent être jugées exactes. Remarquons néanmoins qu'aucune mesure n'est réalisée de manière instantanée. De fait, chaque valeur yi sera liée à une mesure réalisée pendant une durée centrée sur le moment ti. En biologie, les valeurs yi seront souvent peu précises. Nous dirons qu'elles sont entachées d'erreurs importantes. Il est commode d'écrire que y = Y. + ei ou Yi est la valeur vraie, mesurée par un instrument idéal. ei , donné par la différence entre la valeur mesurée et la valeur vraie, est l'erreur liée à notre méthodologie imparfaite. L'erreur ei peut être d'origines diverses. Prenons à titre d'exemple la mesure température d'un sujet humain durant un nycthémère (24h) Nous pouvons distinguer les erreurs suivantes:

(a) Erreurs instrumentales. Considérons le cas d'une mesure de température à d'une sonde dont la résistance varie en fonction de sa température. La valeur mesurée dépendra des fluctuations des courants et tensions de référence, de l'arrondi choisi pour la valeur numérique, etc. Pour un instrument bien conçu, ces erreurs seront fortuites, de moyenne nulle, indépendantes d'une mesure à l'autre et relativement faibles. Par contre, même dans un appareil bien conçu l'erreur peut varier en fonction de la valeur de Yi. Par exemple, dans certains cas la grandeur de l'erreur sera proportionnelle à Yi.

(b) Erreurs de transposition. Nous désirons mesurer la température "centrale" de notre sujet. Nous placerons à cet effet notre sonde en un endroit choisi, en assimilant la température de la sonde à notre concept de température centrale. Cette transposition n'est pas nécessairement adéquate: l'endroit mal choisi car il ne correspond pas à notre concept de température centrale. Cette transposition n'est pas nécessairement adéquate : l'endroit est mal choisi car il ne correspond pas à notre concept de température centrale, ou parce qu'il est sensible à des influences parasites; la sonde ne suit pas convenablement les variations de température, etc. L'erreur résultante peut être importante, fluctuante ou systématique.

(c) Erreurs liées à des effets Perturbateurs. Durant le nycthémère, le sujet subit éventuellement des stress qui augmentent temporairement sa température centrale. Si le but de notre manipulation est d'étudier un sujet "normal", nous pouvons estimer que ces variations constituent des anomalies. Cette décision est toujours malaisée, car il est difficile de rester objectif en toutes circonstances.

Toute détermination de paramètres implique l'utilisation d'un algorithme bien défini qui, après un certain nombre d'opérations logiques ou mathématiques, nous livre une ou plusieurs valeurs numériques. Pour que ces paramètres soient pertinents, il faut respecter quelques conditions:

(a) Hypothèses plausibles: les hypothèses posées doivent correspondre à des suppositions plausibles dans les conditions expérimentales observées. Trop souvent les hypothèses sont posées pour assurer la facilité des calculs! Il en est par exemple ainsi lorsque l'observateur pose que les erreurs sont indépendantes et distribuées selon une loi "normale" (ou gaussienne). Une précaution élémentaire consiste à vérifier, dans les limites du possible, les hypothèses posées.

(b) Stabilité du calcul: il est évident que les valeurs des paramètres obtenus sont influencées par les erreurs expérimentales. Pour certains algorithmes, de toutes petites variations des données initiales engendrent de fortes variations des paramètres estimés. Cette situation est inacceptable et les mathématiciens diront qu'il s'agit d'un "problème mal posé". Il en est ainsi lorsque nous désirons calculer la dérivée d'une fonction connue par un ensemble de couples de points. De même, une estimation des différences entre valeurs expérimentales successives risque de donner des valeurs inexactes.
Le choix d'un traitement de données sera relativement aisé lorsque nous possédons un modèle mathématique adéquat et que les erreurs de mesure sont faibles et de répartition connue. La chronobiologie qui étudie les rythmes biologiques ne possède généralement pas de modèle justificatif du rythme. De plus les erreurs sont le plus souvent importantes. Dès lors, le traitement de données présentera de nombreuses difficultés.

 

Il. APERÇU HISTORIQUE

Bien que les rythmes biologiques aient été décelés dès l'Antiquité, les premiers travaux rigoureux se situent au 19ème siècle. Les études intensives ne datent que de quelques décennies (1)

Examinons tout d'abord le livre important de Bünning (2) paru en 1958. Les mots "rythme" et "oscillation" sont couramment utilisés, mais les concepts correspondants ne sont pas explicitement définis. Par contre, de nombreuses figures représentent les résultats expérimentaux, et font comprendre implicitement au lecteur ce que recouvrent les termes de "rythme" et "oscillation". Il s'agit d'un apprentissage semblable à celui du petit enfant qui apprend les couleurs.. L'information est fournie à l'aide d'exemples, en désignant ce qui doit être remarqué, sans le justifier par l'utilisation d'une procédure justificative. Néanmoins, il est fait référence à des concepts définis en mathématique et physique. Ainsi la notion de "période" est utilisée, sans aucun argument, comme allant de soi. Il est utile de savoir que cette notion est basée sur la définition mathématique de la fonction périodique. C'est une fonction telle que pour toute valeur du temps t, nous avons f(t+P) = f(t). Dans cette égalité, P est la valeur de la période. En langage courant, cette relation implique que le motif répétitif reste toujours identique à lui-même. Pour de nombreux phénomènes en physique ou en astronomie, c'est bien le cas pendant de longues durées, et il paraît donc légitime d'utiliser le concept de période. Mais comment définir une période lorsque la variabilité est grande d'un motif au suivant? Or c'est cette dernière situation que nous rencontrons fréquemment en chronobiologie, et que traite Bünning ! Nous pouvons supposer qu'une évaluation est réalisée, en repérant sur les graphiques la durée D nécessaire pour observer un nombre R de motifs répétitifs. Il est toujours loisible par le rapport D/R. Mais quelle est la signification de cette grandeur ? La notion de "phase" est également introduite par Bünning. Elle se révèle importante en chronobiologie. Sa définition dans le langage courant est "chacun des états d'une chose en évolution" (Petit Robert) Les biologistes l'utilisent couramment dans ce sens pour discuter des phases du cycle ovarien ou de la mitose. Mais que devient ce concept dans le cas d'un cycle de température ou de pression dyastolique? Pour résoudre ce problème, Bünning se réfère à la définition de Aschoff, Klotter et Wever : "Etat instantané d'une oscillation à l'intérieur d'une période, représenté par la valeur de la variable et toutes ses dérivées" Cette définition est inutilisable. Il nous suffit de rappeler que, dans les conditions expérimentales courantes, le calcul de la dérivée est un "problème mal posé". Ici, il nous les faut toutes! De plus, cette définition est difficilement compréhensible, et semble impliquer l'utilisation d'unités peu courantes pour la mesure de la phase. De fait, cette définition n'est jamais utilisée. Bünning se réfère essentiellement à des caractéristiques repérables du motif répétitif (début, maximum, etc.) pour déterminer de manière conventionnelle la phase. Nous constatons donc, à la fin des années cinquante, une appréhension plus qualitative que quantitative, plus intuitive que formelle. Il faut bien avouer que le plus important, aux yeux des biologistes, est de connaître et comprendre l'origine et le rôle des rythmes, la nature concrète des oscillations endogènes ou exogènes et les propriétés de couplage entre ces oscillateurs et le milieu (synchronisation) Dès que l'attention a été attirée sur les rythmes, la difficulté la plus importante n'est certes pas de les voir!

Néanmoins, cette vision peu précise ne satisfait pas nécessairement les scientifiques. Elle provoquera le désir d'utiliser des méthodes quantitatives statistiques. Même si la chronobiologie doit résoudre un problème particulier et complexe, elle n'est pas la seule discipline confrontée aux oscillations. De nombreux biologistes ont donc puisé dans l'arsenal des méthodes d'analyse disponibles, éventuellement en adaptant celles-ci à leurs besoins particuliers. Nous développons cet aspect dans la section suivante. Un effort particulier est réalisé par F. Halberg et ses collaborateurs, avec la mise au point dans les années soixante de la méthode du "Cosinor". Les algorithmes sont publiés, et une terminologie qui se veut rigoureuse est proposée. Le principe est d'ajuster aux données, par la méthode des moindres carrés une fonction cosinusoïdale de période imposée. La procédure fournit une estimation de trois paramètres avec leur intervalle de confiance, le niveau moyen (Mesor), l'amplitude et l'acrophase. Cette dernière valeur est la phase angulaire (au sens de la physique) du maximum de la cosinusoïde ajustée. Depuis sa création, le Cosinor a souvent été utilisé. Les avantages sont apparents. Les rythmes biologiques sont assimilés à des fonctions cosinusoïdales qui sont des fonctions périodiques par excellence. Tous les concepts de période, phase et amplitude sont directement applicables. Les intervalles de confiance permettent de décider, par l'utilisation des lois statistiques classiques, la présence ou non d'un rythme. Dans l'esprit de ses auteurs, la méthode du Cosinor est toujours applicable, et de ce fait constitue une norme qui conduit à une standardisation des résultats. La représentation de ceux-ci est codifiée. Cette normalisation permet l'inventaire des rythmes détectés, et leurs comparaisons. La méthode est présentée comme un progrès essentiel, permettant une "approche microscopique" beaucoup plus riche que le simple examen visuel qualifié "d'inspection macroscopique des données" (3) Il faut malheureusement tempérer cet enthousiasme. En effet cet algorithme postule que les valeurs observées sont le résultat d'un phénomène variant cosinusoïdalement dans le temps et entaché d'erreurs indépendantes et distribuées suivant une loi "normale" Or le plus souvent, la forme du rythme n'est pas cosinusoïdale. En conséquence, ni l'amplitude, ni l'acrophase ne constituent des paramètres pertinents. Ainsi, l'acrophase peut être très éloignée du maximum du rythme étudié, et ceci sans que l'intervalle de confiance ne le révèle. L'interprétation de ces intervalles n'est d'ailleurs pas bien définie. La plupart des utilisateurs s'imaginent qu'ils indiquent, entre autres, les instabilités d'amplitude et de phase des rythmes étudiés. En réalité, ces intervalles caractérisent l'ajustement de la cosinusoïde, ce qui est très différent. Ainsi, des rythmes présentant de fortes variations de durée des motifs successifs pourront donner un intervalle de l'acrophase petit par rapport à ces fluctuations. Bref, le plus souvent, les intervalles de confiance seront erronés et trompeurs. La méthode du Cosinor a ses partisans et ses détracteurs. Soumise à de nombreuses critiques, la méthode a été améliorée. Plusieurs modalités d'utilisation sont prévues (4), ce qui du coup réduit les avantages de la normalisation. Et malgré les améliorations, les inconvénients signalés précédemment subsistent.

 

III. METHODES D'ANALYSE DES OSCILLATIONS

Nous nous contenterons, dans cette section, d'un rappel des propriétés essentielles des méthodes utilisées en chronobiologie. Un article d'une centaine de pages a été consacré à ce sujet (5) et les lecteurs désirant une information détaillée pourront s'y référer.

 

a) Analyse de Fourier

Elle est basée sur le théorème de Fourier qui démontre que toute fonction périodique peut être représentée par la somme d'un terme constant et de fonctions sinusoïdales de périodes P, P/2, P/3,..., P/n. Chacune de ces fonctions sera dénommée "raie". Celle de période P est la fondamentale, les autres les harmoniques. L'ensemble des raies constitue le spectre. En pratique, un algorithme (Transformée discrète de Fourier) permet à partir des valeurs expérimentales d'évaluer le spectre, chaque raie étant caractérisée par sa période, son amplitude et sa phase. Imaginons des données correspondant à un rythme, observé sur quelques motifs strictement répétitifs. Utilisée dans des conditions adéquates, l'analyse nous donnera un spectre comportant une fondamentale dont la période correspond à celle du rythme, et quelques harmoniques. Si nous introduisons des variations dans les durées ou dans les amplitudes des motifs successifs, nous verrons le nombre de raies croître, et le spectre initial deviendra plus "flou". Si en plus, la mesure est entachée d'erreurs, nous verrons émerger une forêt de raies. Certes, certaines raies domineront le spectre, et pourront éventuellement être associées au motif. Mais souvent les harmoniques, d'amplitudes plus faibles, mais importantes pour la connaissance de la forrne, vont disparaître dans la forêt de raies parasites. L'interprétation des résultats sera donc très délicate. La raison majeure des difficultés est évidente: la théorie est basée sur la notion de fonction périodique alors que la plupart des rythmes biologiques ont une grande variabilité.

Néanmoins, de très nombreuses méthodes basées sur cette approche sont utilisées (périodogramme, covariance spectrale, etc.)

 

b) Analyse spectrale "moderne"

Cette analyse est basée sur l'ajustement aux données d'une équation récursive. Une telle équation permet de calculer un terme d'une suite de valeurs, en se basant sur la connaissance des valeurs Précédentes de la suite et d'une séquence de valeurs aléatoires. Les valeurs successives ainsi calculées constitueront un "processus aléatoire". Pour l'analyse, nous réaliserons la démarche inverse. Nous considérerons que nos données constituent un processus aléatoire, et nous désirons estirner l'équation récursive génératrice. Sa connaissance nous permettra d'établir des paramètres pertinents. Cette fois, par principe, les rythmes sont postulés irréguliers. Mais ils le sont trop! Ainsi, le concept de phase a totalement disparu. C'est très gênant pour l'étude des rythmes synchronisés, par exemple par la succession jour-nuit. Pensons à l'activité des rats, très irrégulière, mais toujours bien plus importante la nuit. Rien, dans l'approche mathématique choisie ne permet de caractériser, ni même de détecter cette importante synchronisation. Pour les rythmes non synchronisés, l'analyse peut paraître parfaite, malheureusement ses résultats vont dépendre de manière importante du choix de l'équation récursive et des critères d'ajustement. L'interprétation sera toujours délicate, et il est impératif de comparer les résultats basés sur des équations récursives différentes. Remarquons que vis-à-vis des rythmes biologiques l'analyse de Fourier demande une régularité trop sévère, tandis que les méthodes spectrales modernes postulent une trop grande irrégularité. Dans ces cas, il est prudent d'utiliser, les deux techniques, de relever les accords et désaccords pour aborder l'interprétation.

 

c) Filtrage

Lors d'un filtrage, nous soumettons nos mesures à un tri. Nous allons envisager deux types de filtrage: le lissage et le filtrage à bande étroite.

 

1. Lissage

Imaginons que nos mesures soient exactes. Les points expérimentaux se placeraient généralement sur une courbe relativement simple. Dans la réalité, les erreurs vont provoquer une dispersion des valeurs autour de cette courbe. Nous obtenons un "nuage" de points. Le lissage tend à rétablir, à partir de ce nuage, la courbe originale pour autant que le filtre soit bien adapté. Le danger est de profondément modifier la courbe originale. Les filtres non linéaires, utilisant la médiane, permettent souvent d'éviter cet inconvénient (6) A partir des valeurs lissées, nous pouvons généralement étudier certaines des caractéristiques de chaque motif (plage, maximum, transitions, etc.) L'utilisation de statistiques robustes permet de quantifier la dispersion des valeurs estimées. L'avantage de cette approche est sa simplicité conceptuelle. Nous ne posons presque aucune hypothèse concernant les propriétés du rythme. Par contre, il sera souvent malaisé de distinguer entre les fluctuations propres au rythme et les imprécisions des estimations.

 

2. Filtrage à bande étroite

Ce filtrage est équivalent à celui opéré dans un poste de radio lorsque, parmi toutes les émissions existantes, l'auditeur sélectionne à l'aide d'un filtre la bande de fréquences utilisée par l'émetteur choisi. De même, nous pouvons à l'aide d'un filtre numérique, favoriser la fondamentale d'un rythme (algorithme de démodulation et de double démodulation), ou même la fondamentale et ses harmoniques (méthode du moyennage) Mais, si les émetteurs radio ont été conçus pour favoriser le filtrage à bande étroite, il n'en est pas de même pour les organismes biologiques. Le plus souvent, le filtrage va atténuer les fluctuations des rythmes. Une fois de plus les caractéristiques obtenues risquent d'être trompeuses, et l'interprétation doit être prudente.

 

d) Analyse du chaos

Nous ne mentionnerons que très brièvement cette approche, fort étudiée actuellement. Les travaux sur la dynamique non linéaire et le chaos ont conduit aux notions de cycle limite et d'attracteur étrange. L'interprétation de phénomènes présentant des intervalles de périodicité coupés de nombreuses irrégularités peut être abordée par cette approche (7) Dans le stade actuel, il est indispensable de mesurer un nombre énorme de cycles. Des résultats ont ainsi été obtenus dans l'étude des rythmes cardiaques. L'interprétation est encore très délicate, et les controverses nombreuses. Ce sujet passionnant sera certainement clarifié par les travaux en cours.

 

CONCLUSIONS

D'une part, les situations rencontrées dans l'étude des rythmes sont très variées et complexes. D'autre part, nous disposons d'un arsenal de méthodologies, chacune avec son domaine d'application, ses avantages et inconvénients, En général, aucune méthodologie ne convient parfaitement car nous nous trouvons en dehors de son domaine de validité strict. Remarquons à ce propos que les erreurs et fautes liées au traitement des données sont rarement dues à un manque de rigueur des méthodes mathématiques utilisées. Elles sont généralement causées par une inadéquation entre les hypothèses posées et les conditions expérimentales. Une attitude prudente consiste à utiliser conjointement plusieurs méthodes plus ou moins acceptables et à comparer de manière très critique les différents paramètres obtenus. Si les résultats sont cohérents, nous pouvons les accepter avec une relative confiance. Dans l'état actuel de nos connaissances, la question posée par notre titre reste ouverte. Il n'existe pas de méthode unique pour définir un rythme. Lorsque la détection d'un rythme est marginale, des interprétations discordantes peuvent apparaître. Par contre, l'approche prudente que nous conseillons permet le plus souvent une détermination quantitative fiable de paramètres pertinents.

 

REMERCIEMENTS

Je tiens à remercier Madame Thérèse Vanden Driessche pour sa lecture critique de ce texte.

 

BIBLIOGRAPHIE

1. A. Reinberg. and M. H. Smolensky, Biological Rhythms and Medecine Springer-Vertag, 1983; pp. 1-12.

2. E. Bunning, The Physiological Clock, Third English édition; Springer-Verlag, 1973.

3. G. Cornélissen, F. Halberg, S. de la Pena and W. Jinyi, The need for both macroscopy and microscopy in dealing with spectral structures Chronobiologia, Vol. 15, 1988; pp. 323-327.

4. C. Bingham, B. Arbogast, G. Cornélissen, J. Lee and F. Halberg, Inferential statistical methods for estimating and cornparing cosinor parameters Chronobiologia, Vol. 9, 1982; pp. 397-439.

5. J. De Prins, G. Cornélissen and W. Malbecq, Statistical Procedures in Chronobiology and Chronopharmacology, Annual Review of Chronopharmocology, Vol. 2, 1986; pp. 27-141.

6. H. Lee and S. A. Kassam, Generalized Median Filtering and Related Nonlinear Filtering Techniques, I.E.E.E. Transactions on Acoustics, Speech & Signal Processing, Vol. 33, 1985; pp. 672-683.

7. L. Glass and M.C. Macker, From Clocks to Chaos, The Rhythms of Life, Princeton University Press 1988.

Rythmes et Chronobiométrie