Diskussion
Die BMDP-Anpassungsroutine liefert genaue Werte (normalerweise innerhalb von 6%) sowohl für Zeitkonstanten als auch für relative Amplituden von Dreikomponentenverteilungen, sofern die Zwischenkomponente mindestens 4-5% der 1500 Datenpunkte ausmacht. Obwohl einzelne Schätzungen für eine kleine Zwischenkomponente eine beträchtliche Streuung aufweisen, liegen die Durchschnittswerte immer noch innerhalb von 6% der wahren Werte.,
Ein Teil der Variabilität einzelner Passungen kann sich aus Inkonsistenzen ergeben, die den simulierten Daten innewohnen. Bei Ai = 5% bestand die Zwischenkomponente nur aus 75 von 1500 Punkten. Da die Standardabweichung für eine Exponentialverteilung gleich ihrem Mittelwert ist, sind 75 Punkte wirklich keine angemessene Stichprobengröße für eine Exponentialverteilung. Obwohl angepasste Werte, die von der BMDP-Routine generiert wurden, manchmal von den Mitteln abwichen, erzeugten angepasste Werte konsistent höhere Wahrscheinlichkeiten als Mittelwerte, wie durch unabhängige Berechnung der Wahrscheinlichkeitsfunktion bestimmt., Dieser Befund zeigt an, dass die Routine korrekt funktionierte, indem sie mit den Werten konvergierte, die die Wahrscheinlichkeit maximierten.
Ein Problem bei der Anpassung von Verteilungen, die die Summen von Exponentialen sind, besteht darin, die Anzahl der Komponenten zu bestimmen, die zur Beschreibung der Daten erforderlich sind. Zum Beispiel kann eine Zweikomponenten-Wahrscheinlichkeitsdichtefunktion ausreichend erscheinen, um eine Dreikomponenten-Verteilung anzupassen, bei der eine Zwischenkomponente nur 3-4% der Datenpunkte beträgt., Die visuelle Bestimmung der Passungsgüte und der Anzahl der erforderlichen Komponenten ist nicht immer zufriedenstellend und kann zu Inkonsistenzen bei der Datenanalyse führen.
Es wurden mehrere Tests vorgeschlagen, um die Passgenauigkeit verschiedener Modelle zu vergleichen und die Anzahl der Komponenten zu bestimmen, die zur Beschreibung einer Verteilung erforderlich sind. Diese Tests basieren auf dem Log Likelihood Ratio (LLR) oder dem Logarithmus des Verhältnisses zwischen maximalen Wahrscheinlichkeiten, die durch Anpassung an verschiedene Modelle erhalten werden, z. B. die Vorhersage von Zwei – gegen-Drei-Komponenten-Verteilungen., Die LLR ist gleich der Differenz zwischen den Verlustfunktionen für die beiden Passungen.
Wenn Modelle verschachtelt sind, hat der LLR zweimal eine χ2-Verteilung mit der Anzahl der Freiheitsgrade, die der Anzahl zusätzlicher Parameter des komplexeren Modells entspricht (4, 11). Bei 2 Freiheitsgraden begünstigt der Wahrscheinlichkeitsverhältnistest eine Dreikomponentenanpassung (mit fünf unabhängigen Parametern) gegenüber einer Zweikomponentenanpassung (mit drei unabhängigen Parametern) auf dem Signifikanzniveau von 0,05, wenn die LLR mehr als 3 beträgt.,
Andere Tests auf Passgenauigkeit umfassen Begriffe, die ein Modell für zusätzliche Komplexität bestrafen. Das Akaike Information Criterion (AIC) (12) besagt, dass das Modell mit dem niedrigsten AIC das bessere Modell ist. AIC = – L + P, wobei L die maximale Protokollwahrscheinlichkeit und P die Anzahl unabhängiger Parameter im Modell ist. Eine Drei-Komponenten-Passform würde gegenüber einer Zwei-Komponenten-Passform bevorzugt, wenn die LLR mehr als 2 beträgt.
Ein ähnliches Verfahren wurde von Schwarz (13) vorgeschlagen. Das Hauptkriterium (SC) ist – L + , wobei N die Gesamtzahl der Verweilzeiten ist., Wenn N = 1500 ist, wird eine Dreikomponenten-Anpassung nur dann über eine Zweikomponenten-Anpassung ausgewählt, wenn sich die LLR um mehr als 7.3 unterscheidet.
Für die simulierten Daten, in denen Ai 5% betrug, betrugen die Wahrscheinlichkeitsverhältnisse für Zwei-Komponenten-gegen-Drei-Komponenten-Fits durchschnittlich 9,2 ± 2,6 (±SD) für die fünf Datensätze. Alle drei Tests betrachten dies als signifikanten Unterschied und zeigen, dass das komplexe Modell vorzuziehen ist. Wenn Ai 2% betrug, betrugen die Wahrscheinlichkeitsraten durchschnittlich 2,2 ± 1,8. Nur der AIC würde die Auswahl der Dreikomponenten-Passform bevorzugen.,
Datensätze, in denen Ai Zwischenwerte von 3 oder 4% zugewiesen wurden, wurden ebenfalls getestet, um festzustellen, ob das BMDP-Programm eine dritte Komponente erkennen konnte, wenn es zu einer signifikanten Verbesserung der Passform führte. Für die beiden Datensätze mit drei Komponenten, die nur als Zweikomponentenverteilungen passen, waren die LLRs 2.4 und 2.0. Nur AIC würde vorschlagen, dass die LLRs signifikante Unterschiede anzeigen. Im Durchschnitt betrug die LLR für Ai = 4% 6,0 ± 5,2 und die LLR für Ai = 3% 4,2 ± 2,6.,
Sowohl der LLR-als auch der SC-Test legen nahe, dass das BMDP-Programm eine dritte Komponente in der Distribution auflösen konnte, wenn die Dreikomponenten-Anpassung eine signifikante Verbesserung gegenüber der Zweikomponenten-Anpassung darstellte. Bei Datensätzen, bei denen die Dreikomponentenanpassungsroutine nur zwei Zeitkonstanten ergab, war der Unterschied zwischen den beiden Anpassungen nicht signifikant.
Die hier beschriebene Bewertung gilt natürlich nur für die Bedingungen, unter denen das Programm getestet wurde. Die Genauigkeit und Auflösung des Programms nimmt mit weniger Datenpunkten ab., Die simulierten Daten wurden jedoch entworfen, um einen ziemlich strengen Test der Anpassungsroutine zu liefern. Zwei der Zeitkonstanten wurden durch einen Faktor von nur 5 getrennt; tf war nur 5 mal tmin, was bedeutet, dass etwa 18% der Daten in dieser Komponente von der Analyse ausgeschlossen wurden; und jeder Datensatz bestand aus nur 1500 Punkten, was eine relativ kleine, aber realistische Stichprobengröße darstellt.
Beim Vergleich von kinetischen Modellen auf der Basis von Passungen, die von diesem Programm durchgeführt werden, sollten jedoch gewisse Einschränkungen beachtet werden., Obwohl Höchstwahrscheinlichkeitsschätzungen teilweise für verpasste Ereignisse korrigiert wurden, die kleiner als eine bestimmte Dauer tmin sind, gelten dennoch wesentliche Einschränkungen für die Interpretation von Daten, die eine extrem schnelle Komponente enthalten, deren Zeitkonstante nicht viel größer als tmin ist.
Eine potentielle Quelle der Verzerrung, die hier nicht berücksichtigt wird, ist der Sampling-Promotion-Fehler, der auftritt, wenn die vom Computer verwendete Analog-Digital-Abtastrate mit der Ereignisdauer vergleichbar ist (6, 14)., Die Abtastung von Daten in diskreten Intervallen hat den Effekt, dass Daten zu Behältern kombiniert werden, da Verweilzeiten nur als Vielfaches des Abtastintervalls ausgedrückt werden können. Diese Behälter überlappen sich und die tatsächliche Dauer eines Ereignisses, das als T – Abtastintervalle gemessen wird, kann tatsächlich irgendwo zwischen-1-und T + 1-Intervallen liegen. Beispielsweise bedeutet ein Abtastintervall von 50 µsec/Punkt, dass Verweilzeiten, die als 100 µsec in der Dauer erscheinen, tatsächlich irgendwo zwischen 50 und 150 µsec lang sein können. Die Anzahl der gemessenen Verweilzeiten in jedem Behälter ist somit größer als die wahre Anzahl oder wird befördert., Dieser Effekt ist am signifikantesten, wenn der Abtastzeitraum einen signifikanten Bruchteil der Zeitkonstante der Verteilung ausmacht.
McManus et al. (6) explizite Ausdrücke zur Korrektur der Wahrscheinlichkeit für Stichprobenförderungsfehler angegeben haben (siehe auch Ref. 14). Sie kommen zu dem Schluss, dass Fehler bei der Schätzung der maximalen Wahrscheinlichkeit von Zeitkonstanten für Summen von Exponentialen nur dann signifikant werden würden, wenn der Abtastzeitraum größer als 10-20% der schnellsten Zeitkonstante der Verteilung wäre. Die hier vorgestellten Methoden enthalten keine Korrekturen für Stichprobenförderungsfehler.,
Eine andere Art von Fehler, die zuvor nicht erwähnt wurde, wird durch Ereignisse erzeugt, die unentdeckt bleiben, da sie schneller als tmin sind. Verpasste Schließzeiten führen dazu, dass Kanalöffnungen zu lang erscheinen, da zwei benachbarte Eröffnungsereignisse als ein einziges langes Ereignis angezeigt werden. In ähnlicher Weise verursachen verpasste Öffnungen fälschlicherweise lange Messungen der geschlossenen Dauer, da zwei benachbarte geschlossene Zeiten als eine einzige lange geschlossene Zeit erscheinen. Die Korrektur für solche verpassten Ereignisse ist modellabhängig und kann ziemlich komplex werden (15, 16)., Die Korrektur hängt von der Anzahl der Bahnen ab, auf denen der Kanal Übergänge von einem Zustand in einen anderen durchlaufen kann, und von den relativen Größen der Ratenkonstanten für den Übergang zwischen Zuständen. Wenn solche verpassten Ereignisse nicht korrigiert werden, können erhebliche Fehler in Schätzungen für Ratenkonstanten zwischen Zuständen auftreten.
Sofern diese Einschränkungen berücksichtigt werden, bietet die BMDP-Anpassungsroutine eine bequeme Methode zum Erzeugen von Zeitkonstanten und relativen Amplituden von einkanaligen Verweilzeitverteilungen.