Akaike Information Criterion (Français)

Discussion

la routine D’ajustement BMDP fournit des valeurs précises (généralement dans les 6%) pour les constantes de temps et les amplitudes relatives des distributions à trois composantes, à condition que la composante intermédiaire représente au moins 4-5% des 1500 points de données. Bien que les estimations individuelles pour une petite composante intermédiaire présentent une dispersion considérable, les valeurs moyennes sont toujours à moins de 6% des vraies.,

Une partie de la variabilité des ajustements individuels peut provenir d’incohérences inhérentes aux données simulées. À Ai = 5%, la composante intermédiaire ne comprenait que 75 points sur 1500. Comme l’écart type d’une distribution exponentielle est égale à sa moyenne, 75 points est vraiment pas une taille d’échantillon suffisante pour une distribution exponentielle. Bien que les valeurs ajustées générées par la routine BMDP aient parfois dévié des moyennes, les valeurs ajustées ont toujours produit des probabilités plus élevées que les valeurs moyennes, telles que déterminées par un calcul indépendant de la fonction de vraisemblance., Cette constatation indique que la routine fonctionnait correctement en convergeant vers les valeurs qui maximisaient la probabilité.

un problème associé à l’ajustement des distributions qui sont les sommes des exponentielles est de déterminer le nombre de composantes nécessaires pour décrire les données. Par exemple, une fonction de densité de probabilité à deux composantes peut sembler adéquate pour ajuster une distribution à trois composantes dans laquelle une composante intermédiaire ne représente que 3 à 4% des points de données., La détermination visuelle de la qualité de l’ajustement et du nombre de composants requis n’est pas toujours satisfaisante et peut donner lieu à des incohérences dans l’analyse des données.

plusieurs tests ont été proposés pour comparer la qualité d’ajustement de différents modèles et déterminer le nombre de composants requis pour décrire une distribution. Ces tests sont basés sur le log likelihood ratio (LLR), ou le logarithme du rapport entre les probabilités maximales obtenues en s’ajustant à différents modèles, tels que ceux prédisant des distributions à deux ou trois composantes., Le LLR est égal à la différence entre les fonctions de perte pour les deux ajustements.

lorsque les modèles sont imbriqués, deux fois le LLR a une distribution χ2 avec un nombre de degrés de liberté égal au nombre de paramètres supplémentaires du modèle plus complexe (4, 11). À 2 degrés de liberté, le test du rapport de vraisemblance favorise un ajustement à trois composantes (avec cinq paramètres indépendants) par rapport à un ajustement à deux composantes (avec trois paramètres indépendants) au niveau de Signification de 0,05 lorsque le LLR est supérieur à 3.,

d’autres tests de qualité de l’ajustement incluent des termes qui pénalisent un modèle pour une complexité supplémentaire. Le critère D’information D’Akaike (AIC) (12) indique que le modèle avec le plus faible AIC est le meilleur modèle. AIC = – L + P, où L est la probabilité logarithmique maximale et P est le nombre de paramètres indépendants dans le modèle. Un ajustement à trois composants serait préféré à un ajustement à deux composants lorsque le LLR est supérieur à 2.

Une méthode similaire a été proposée par Schwarz (13). Le critère de Schwarz (SC) est – l + , où N est le nombre total de temps de séjour., Lorsque N = 1500, un ajustement à trois composants serait sélectionné par rapport à un ajustement à deux composants uniquement lorsque le LLR diffère de plus de 7,3.

pour les données simulées dans lesquelles L’ia était de 5%, les rapports de vraisemblance pour les ajustements à deux composantes par rapport aux ajustements à trois composantes étaient en moyenne de 9,2 ± 2,6 (±écart-type) pour les cinq ensembles de données. Les trois tests considèrent qu’il s’agit d’une différence significative et indiquent que le modèle complexe est préférable. Lorsque L’ia était de 2%, les rapports de vraisemblance étaient en moyenne de 2,2 ± 1,8. Seul L’AIC favoriserait la sélection de l’ajustement à trois composants.,

des ensembles de données dans lesquels L’ia s’est vu attribuer des valeurs intermédiaires de 3 ou 4% ont également été testés afin de déterminer si le programme BMDP était capable de détecter un troisième composant lorsqu’il produisait une amélioration significative de l’ajustement. Pour les deux ensembles de données contenant trois composantes qui ne correspondent qu’à des distributions à deux composantes, les LLR étaient de 2,4 et 2,0. Seul AIC suggérerait que les LLR indiquent des différences significatives. En moyenne, la LLR pour Ai = 4% était de 6,0 ± 5,2 et la LLR pour Ai = 3% était de 4,2 ± 2,6.,

Les tests LLR et SC suggèrent que le programme BMDP a été en mesure de résoudre un troisième composant de la distribution chaque fois que l’ajustement à trois composants était une amélioration significative par rapport à l’ajustement à deux composants. Pour les ensembles de données dans lesquels la routine d’ajustement à trois composantes n’a donné que deux constantes de temps, la différence entre les deux ajustements n’était pas significative.

bien entendu, l’évaluation décrite ici ne s’applique véritablement qu’aux conditions dans lesquelles le programme a été testé. La précision et la résolution du programme diminueront avec moins de points de données., Les données simulées ont cependant été conçues pour fournir un test assez rigoureux de la routine d’ajustement. Deux des constantes de temps ont été séparées par un facteur de seulement 5; tf était seulement 5 fois tmin, ce qui signifie qu’environ 18% des données de cette composante ont été exclues de l’analyse; et chaque ensemble de données ne comprenait que 1500 points, ce qui est une taille d’échantillon relativement petite mais réaliste.

certaines limites doivent cependant être gardées à l’esprit lors de la comparaison de modèles cinétiques sur la base des ajustements effectués par ce programme., Bien que les estimations du maximum de vraisemblance aient été partiellement corrigées pour les événements manqués de moins d’une certaine durée tmin, des contraintes majeures s’appliquent encore à l’interprétation des données qui contiennent une composante extrêmement rapide dont la constante de temps n’est pas beaucoup plus grande que tmin.

Une source potentielle de biais non prise en compte ici est l’erreur de promotion de l’échantillonnage qui se produit lorsque le taux d’échantillonnage analogique-numérique utilisé par l’ordinateur est comparable à la durée de l’événement (6, 14)., L’échantillonnage des données à intervalles discrets a pour effet de combiner les données dans des bacs, car les temps de séjour ne peuvent être exprimés que sous forme de multiples de l’intervalle d’échantillonnage. Ces bacs se chevauchent et la durée réelle d’un événement mesurée pour être des intervalles D’échantillonnage T peut en fait être comprise entre – 1 et des intervalles T + 1. Par exemple, un intervalle d’échantillonnage de 50 µsec/point signifie que les temps de séjour apparaissant comme 100 µsec dans la durée peuvent effectivement être n’importe où de 50 à 150 µsec long. Le nombre de temps de séjour mesurés dans chaque bac sera donc supérieur au nombre réel, ou sera promu., Cet effet est plus important lorsque la période d’échantillonnage d’une fraction importante de la constante de temps de la distribution.

McManus et coll. (6) ont fourni des expressions explicites pour corriger la probabilité d’erreurs de promotion d’échantillonnage (Voir Aussi Réf. 14). Ils concluent que les erreurs dans l’estimation du maximum de vraisemblance des constantes de temps pour les sommes d’exponentielles ne deviendraient significatives que si la période d’échantillonnage était supérieure à 10-20% de la constante de temps la plus rapide de la distribution. Les méthodes présentées ici n’intègrent pas de corrections pour les erreurs de promotion d’échantillonnage.,

un autre type d’erreur non mentionné précédemment est produit par des événements qui ne sont pas détectés car ils sont plus rapides que tmin. Les heures de fermeture manquées font que les ouvertures de canaux apparaissent trop longues car deux événements d’ouverture adjacents apparaissent comme un seul événement long. De même, les ouvertures manquées entraînent des mesures erronées de durées fermées car deux temps fermés adjacents apparaissent comme un seul temps fermé long. La Correction de tels événements manqués dépend du modèle et peut devenir assez complexe (15, 16)., La correction dépend du nombre de voies par lesquelles le canal peut subir des transitions d’un État à un autre et des grandeurs relatives des constantes de vitesse pour la transition entre les États. Le défaut de correction pour de tels événements manqués peut introduire des erreurs substantielles dans les estimations des constantes de taux entre États.

à condition que ces limitations soient prises en compte, la routine D’ajustement BMDP fournit une méthode pratique pour générer des constantes de temps et des amplitudes relatives de distributions de temps d’arrêt à canal unique.

Share

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *