Statistische Alternativen zu Signal-to-Noise

Sensitivitätsvergleiche in der Massenspektrometrie

Der Signal-to-Noise-Ansatz kann insbesondere bei modernen, hochselektiven Massenspektrometern nicht mehr als die universelle Methode für die Bestimmung der Instrumentenleistungsfähigkeit angesehen werden. Ein neuer, statistischer Ansatz etabliert sich über Mehrfachinjektionen zur Bestimmung des Instrument Detection Limit (IDL). IDL erlaubt selbst für die Spurenanalytik mit komplexen Matrizes einen direkten Bezug auf die praktische Anwendbarkeit und ist für den Leistungsvergleich von MS-Instrumenten am besten geeignet.

Für die Bewertung und den Vergleich der Sensitivität von massenspektrometrischen Detektoren in der GC-MS(/MS) und LC-MS(/MS) z. B. im Rahmen von Neubeschaffung, Ausschreibungen, aber auch bei der Leistungsevaluierung nach der Installation ist eine aussagekräftige und geeignete Methodik erforderlich. Unter ungünstigen Bedingungen ist das Signal-to-Noise-Verfahren (S/N) gerade in der modernen Tandem-Massenspektrometrie und ganz besonders bei der hochauflösenden MS nicht immer aussagekräftig. Die Genauigkeit hängt von vielen Randbedingungen ab, die präzise definiert werden müssen, und kann von diversen Imponderabilien beeinträchtigt werden [1]. Für diese Fälle wurde das sog. Instrument Detection Limit (IDL) entwickelt.

Technikfortschritte erfordern neue Bewertungen

Die Massenspektrometrie hat sich in den letzten 15 Jahren so stark weiterentwickelt, dass die Sensitivitäts-Spezifikationen der Geräte enorm gestiegen sind. Waren anfänglich noch Signal-to-Noise-Verhältnisse (S/N) von 10 : 1 üblich, werden nun S/N von über 200 000 : 1 erreicht (1 pg Reserpin; on column; LC-QQQ). Für den Anwender stellt sich hier allerdings die berechtigte Frage, ob sich diese Verbesserungen der Massenspektrometer bzw. deren nominell angegebene Spezifikation in gleicher Weise auf die Nachweisstärke der eigenen Methoden auswirkt. Obwohl die Verbesserungen in der MS-Technik die Leistungsfähigkeit der Geräte immer weiter gesteigert haben, hinken die tatsächlich erreichten Bestimmungsgrenzen der Analyseverfahren meist hinter den großen Verbesserungen der S/N-Spezifikationen hinterher.

Anzeige
Bild 1: Scheinbar verringertes Rauschen durch fortschrittliche Glättungsverfahren verschiedener Ausprägung zur Steigerung von S/N-Ergebnissen (Peak-to-Peak; Fusarenon X). © Wolfgang Brodacz

In den letzten Jahren wurden große Fortschritte erzielt, die das Grundrauschen moderner Massenspektrometer signifikant herabgesetzt haben, so dass jetzt oft nur noch sog. Neutralrauschen (in der GC-MS z. B. durch metastabile Heliumatome) übrig geblieben ist [2]. Vor 20–30 Jahren war dieses Neutralrauschen noch überhaupt kein Thema, da es im wesentlich stärkeren Rauschen durch Säulenbluten, Verunreinigungen aus dem Diffusionspumpenöl bzw. Elektronik untergegangen ist. Erst seitdem es Ultra-Low-Bleed-Kapillarsäulen, hochreines Vakuum und äußerst selektive MS/MS-Konfigurationen gibt, tritt dieses bei aktuellen Systemen zu Tage. Konstruktive Änderungen wie Neupositionierung des Elektronenvervielfachers („Off-Axis“) bzw. 3-dimensionale Umlenkungen im Detektionssystem („Triple-Axis“) sind die Antworten der Hersteller. Alle diese erfolgreichen Anstrengungen haben dazu geführt, dass das bei der Geräteinstallation und Abnahme demonstrierte S/N im Laufe dieser Entwicklung enorm gestiegen ist.

Bei modernen MS-Verfahren ist mit reinen Kalibrierstandards oft nur noch elektronisches Rauschen sichtbar, das mehrere Größenordnungen unter dem chemischen Rauschen von Realproben liegt. Unter Umständen lässt sich durch Erhöhen der Spannung am Elektronmultiplier-Detektor das Nutzsignal damit erhöhen, ohne das elektronisches Rauschen, das bei sehr selektiven Methoden dem Grundrauschen entspricht, ebenfalls in diesem Maße zu verstärken. Wird nun gleichzeitig der Schwellenwert für die Ionendetektion angehoben, ist es möglich, dieses elektronische Grundrauschen auch noch auszublenden. Dadurch erhöht sich zwar letztlich das Signal, aber nicht der Ionenstrom. Gerade die Steigerung des Ionenstroms wäre aber die Voraussetzung für eine tatsächliche Verbesserung der realen Nachweislimits.

Letztlich führen diese Maßnahmen (bzw. Manipulationen) nur dazu, dass zwar das nominelle Signal-zu-Rausch-Verhältnis in die Höhe getrieben werden kann, aber kein positiver Einfluss auf das reale Nachweisvermögen bei Proben stattfindet. Diese Diskrepanz wird oft auch noch durch Glättungsverfahren (Bild 1) verstärkt und integrierte Hochleistungsprozessoren können schon im Detektor durch digitale Filterung das Rauschen auf nahezu null reduzieren. Obwohl der wirklich entscheidende MS-Ionenstrom gering ist, sehen diese digital geglätteten Signalverläufe zwar eindrucksvoll aus, täuschen damit aber über eine relativ schwache analytische Empfindlichkeit hinweg. Schwerer wiegt allerdings, dass damit keinerlei Verbesserung der Reproduzierbarkeit erreicht wird bzw. manchmal sogar eine Verschlechterung derselben eintritt.

Zusätzlich kann das Signal-to-Noise-Ergebnis durch sog. „Undersampling“ noch einmal künstlich gesteigert werden. Dafür werden (z. T. äußerst) lange Verweilzeiten zum Sammeln von Ionen (Dwell Time) eingestellt, die zu sehr intensiven Signalen führen. Der gravierende Nachteil ist aber, dass dadurch nur so wenige Datenpunkte (tlw. nur noch 2–5) entstehen, dass ein chromatographischer Peak nicht mehr ausreichend genau definiert werden kann. Störungen von Einzelmessungen, die sonst als abweichende Peakform auftreten, sind nicht mehr erkennbar.

Für die Massenspektrometrie gilt, dass eine höhere Empfindlichkeit immer direkt mit einer absoluten Zunahme der im MS-Detektor registrierten Ionenanzahl verbunden ist. Der Ionenstrom kann nur durch folgende Maßnahmen gesteigert werden: Zuerst müssen durch eine effizientere Ionisierung mehr Analytmoleküle in geladene Teilchen umgewandelt werden. Diese müssen dann möglichst verlustfrei und gebündelt von der Ionenquelle in den Hochvakuumteil des MS transferiert werden. Jeder anschließende Teilschritt, über die Fragmentierung bis zum Elektronmultiplier, muss immer wieder mittels Refokussierungen des dispergierenden Ionenstrahls auf maximale Transmission und damit Effizienz getrimmt werden. Nur so können bei MS-Systemen, die mit chromatographischen Trennverfahren gekoppelten sind, stärkere Signale, d. h. größere Peaks und somit eine erwünschte Erweiterung des Kalibrierbereiches nach unten erzielt werden. Daraus resultiert eine verbesserte Präzision in Form geringerer relativer Standardabweichungen, da stärkere Signale geringeren Störungen unterworfen sind.

Bild 2: Ermittlung des IDL (oben) und Vergleich mit S/N-Messungen (rechts unten) mittels sieben Wiederholinjektionen von je 1 fg Bentazon (LC-QQQ: Agilent). © Agilent Technologies

Statistische Verfahren im Aufwind

Die US-EPA hat schon vor einiger Zeit einen statistischen Ansatz für das sog. Method Detection Limit MDL formuliert und in der Europäischen Union unterstützt man vergleichbare Verfahren durch diverse Richtlinien. Alle diese Methoden sind darin ähnlich, dass sie Mehrfachmessungen unter gleichbleibenden Bedingungen erfordern, um die Messunsicherheit des Gesamtsystems zu bestimmen. Dafür müssen 5 bis 10 identische Proben mit einer Konzentration nahe dem zu erwartenden Limit, gemeinsam mit einer vergleichbaren Anzahl von Blanks (Leerproben), gemessen werden. Durch die hohe Selektivität des Massenspektrometers kann der Beitrag der Blanks oft vernachlässigt und somit auf diese Messungen verzichtet werden (Bild 2).

Die Varianzen der gemessenen Peakflächen beinhalten die Schwankungen der Injektionen, die Signalvariationen des jeweiligen Analyten und im Besonderen auch die Schwankung des Untergrundrauschens. Aus diesem Grunde ergab sich auch zur Bestimmung der Gerätesensitivität auf Basis reiner Standardlösungen ein statistischer Ansatz, der durch wiederholte Injektionen eine Alternative zu S/N bietet. Seit einiger Zeit schwenken einzelne MS-Gerätehersteller, zumindest zusätzlich, in Richtung des Begriffs „Instrument Detection Limit“ IDL [3] bzw. ähnlicher Kennzahlen um (4).

Instrument Detection Limit – Berechnung und Bedeutung

Das Instrument Detection Limit IDL kann als die geringste Menge eines Analyten interpretiert werden, die erforderlich ist, um ein Signal zu produzieren, das mit einer bestimmten Wahrscheinlichkeit (z. B. 99 %) vom Untergrund, oder präziser ausgedrückt, von einer Messung ohne Analyt unterschieden werden kann. Sie bezieht sich dabei auf die Standardabweichung der gemessenen Peakflächen von Wiederholinjektionen und auf den statistischen Kennwert der Student-t-Verteilung.

Die IDL-Methode zur Bestimmung der Sensitivität ist praxisgerechter als die klassische Signal-to-Noise-Berechnung, da sie praktisch alle Komponenten des Analysensystems von der Injektion über die Chromatographie bis zur massenspektrometrischen Bestimmung umfasst. Ausgangspunkt ist dabei die Standardabweichung, die aus 7 bis 10 Einzelbestimmungen ermittelt wird und somit nicht nur auf das Zufallsereignis einer Einzelinjektion angewiesen ist. Für eine valide Statistik sollte der Anzahl der Wiederholinjektionen zumindest sieben betragen, besser wären zwischen acht und zehn. Nach statistischen Richtlinien sollte die in das chromatographische System injizierte Konzentration nicht mehr als das Fünffache der berechneten IDL ausmachen (Bild 3 und 4).

Bild 3: Bestimmung des IDL über zehn Wiederholinjektionen mit je 5 fg Reserpin (LC-QQQ: Agilent; SRM: 609 > 195). © Agilent Technologies 5991-4089EN

Wenn die Anzahl der Messungen klein ist (d. h. unter 30) wird der einseitige Student-t-Verteilungsfaktor verwendet. Dieser Wert wird der Student-Tabelle t-Verteilung bei n-1, d. h. (Anzahl der Messungen minus eins) als Freiheitsgrade (q), entnommen. Je größer die Anzahl der Messungen ist, desto kleiner wird der t-Wert und folglich die Unsicherheit der Bestimmung des Instrument Detection Limit.

Besonders gut geeignet bzw. manchmal sogar erforderlich ist die IDL-Variante bei sog. Low Noise-Methoden (hochauflösende MS und hochselektive Tandem-MS). Besonders bei der Tandem-MS mit Hochauflösung findet sich mit reinen Kalibrierstandards oft praktisch kein messbares Untergrundsignal. Damit tendiert das Rauschen praktisch gegen null und das S/N würde rein rechnerisch ins Unendliche streben und damit unsinnig werden.

Für die IDL-Berechnung ist es in der Praxis naheliegend, über Standardfunktionen der Chromatographiedaten-Systeme die relative Standardabweichung (d. h. Standardabweichung/Mittelwert) zu ermitteln und dann das Instrumenten-Detektionslimit IDL direkt in der Einheit zu bestimmen, die der injizierten Menge entspricht (z. B. Femtogramm fg).

Die Formel dazu lautet: IDL = t x (relative Standardabweichung/100) x injizierte Menge (t bei gewählter statistischer Sicherheit)

Beim im Bild 2 gezeigten Beispiel eines Massenspektrometer-Herstellers wurden sieben Wiederholinjektionen (Analyt: Bentazon) durchgeführt. Das entspricht einem Freiheitsgrad von 6 und bei 99 % Vertrauensniveau ist die statistische Kennziffer aus der t-Tabelle 3,143. Das IDL-Endergebnis von 0,39 Femtogramm ist letztlich die Menge des Analyten, die mit 99 % Wahrscheinlichkeit detektiert und vom Untergrund unterschieden werden kann, oder exakter ausgedrückt, bei der nur in 1 % der Fälle ein falsch positiver Wert ermittelt wird.

Im Gegensatz dazu sind in dem selben Beispiel für ein Signal-Rausch-Verhältnis von 3 (LOD) 0,14 fg und bzw. für S/N = 10 (LOQ) 0,45 fg Bentazon erforderlich. Für die Kalkulation von LOD und LOQ wurde das durchschnittliche S/N-Ergebnis von 21,9 verwendet (Spannweite von 12 bis 33,5). Die Schwankungen der einzelnen errechneten S/N-Werte sind ca. 3,7-mal so hoch wie deren korrespondierenden Peakflächen.

Am vorliegenden Beispiel in Bild 3 wird eine Berechnung über zehn Wiederholinjektionen von je 5 Femtogramm Reserpin in ein LC-MS/MS-System herangezogen. Die Peak-Präzision wurde mit einer relativen Standardabweichung von 7,2 % ermittelt. In diesem Fall ist der t-Wert, bei einem Konfidenzintervall von 99 % und neun Freiheitsgraden (Injektionsanzahl n - 1), gleich 2,821. Somit ergibt sich IDL = 2,821 x (7,2 %/100 %) x 5 fg = 1,02 Femtogramm.

Das bedeutet, dass eine Reserpin-Menge von zumindest 1,02 Femtogramm mit 99 % Wahrscheinlichkeit vom Hintergrundrauschen unterschieden werden kann.

Bild 4: Verschlechterung der Reproduzierbarkeit (ansteigend: RSD = relative Standardabweichung = Variationskoeffizient) mit abnehmender Injektionsmenge durch Reduktion des Ionenstroms in der MS. © Agilent Technologies

Die Signalstärke ist in der MS grundsätzlich von der Anzahl der Ionen abhängig, die den Detektor erreichen. Wird die Anzahl der Ionen durch diverse Ineffektivitäten (schlechte Ionisierungsausbeute, Übertragungsverluste, Defokussierung etc.) reduziert, erhöht sich die relative Standardabweichung und umgekehrt. Dabei ist zu beachten, dass sich eine Steigerung der Ionenanzahl nur um die Quadratwurzel des Steigerungsfaktors auswirkt (Zählstatistik). D. h., die 4-fache Ionenausbeute bewirkt nur eine Halbierung der relativen Standardabweichung (Bild 4).

Ein weiterer Hersteller von Tandem-Massenspektrometern propagiert ebenfalls eine statistische Version, um das LOQ (limit of quantification) zu definieren [4]. Bei dessen Konzept wird jene Konzentration angestrebt, bei der die relative Messunsicherheit einer Einzelinjektion reproduzierbar innerhalb von +/–20 % bleiben soll. Dabei wird ebenfalls auf Mehrfachinjektionen gesetzt und jeweils drei bis fünf Einspritzungen bei fünf unterschiedlichen Konzentrationsniveaus durchgeführt. Mindestens eine Konzentrationsstufe ist nahe an und eine unterhalb des Quantifizierungs-Limits anzusetzen. Unter Verwendung einer linearen Regression (ohne Gewichtung) wird die Konzentration bestimmt, bei welcher der Variationskoeffizient unter 20 % und die Genauigkeit bei +/–20 % liegt.

Welche statistischen Verfahren auch angewendet werden, sie schließen im Gegensatz zu singulären S/N-Ermittlung immer die überlagerten Variationsbreiten aller Komponenten des kompletten Systems ein. Daraus resultiert ein wesentlich realistischerer Schätzwert, der noch am besten auf eine reale Gesamtmethode übertragen werden kann.

Fazit

Der enorme Fortschritt in der MS-Technologie hat leistungsstarke Systeme hervorgebracht, für deren Beurteilung der bisherige Signal-to-Noise-Ansatz nicht immer ausreicht. In der hochselektiven, ultrareinen und „digital gefilterten“ Welt der modernen Massenspektrometrie können klassische S/N-Berechnungen auch unzureichende oder sogar irreführende Informationen ergeben. Da gerade bei Massenspektrometern die Steigerung der Ionenanzahl für die Empfindlichkeit ausschlaggebend ist, sind statistische Methoden wie z. B. IDL mit Probenkonzentrationen, die sich der Erfassungsgrenze annähern, besser geeignet. Als Hauptnachteil ist allerdings der wesentlich höhere Aufwand für die notwendigen Wiederholmessungen und deren Auswertungen zu nennen.

Das IDL entspricht den Vorgaben vieler akzeptierter zahlreicher US- und EU-Organisationen, die ähnliche Berechnungen zur Bestimmung des Detektionslimits von analytischen Gesamtmethoden empfehlen. Es basiert auf gut etablierten statistischen Verfahren, die sich auf einen 99 %-Vertrauensbereich und die Student-t-Verteilung beziehen. IDL misst die typische Leistungsfähigkeit über eine Serie von Wiederholinjektionen und ist nicht auf eine einzelne Injektion beschränkt. Daher ist dieser Wert repräsentativ für die Präzision und Reproduzierbarkeit des gesamten Gerätesystems, vom Autosampler über das gesamte chromatographische System bis zum Massenspektrometer. Das Resultat des Verfahrens kann zudem nicht von intelligenten Rauschunterdrückungs-Algorithmen und Software-Manipulationen „geschönt“ werden.

Der IDL-Ansatz bzw. ähnliche statische Verfahren sind nicht nur für sehr geringen Untergrund, sondern auch für höheres Rauschen gut geeignet. Deshalb sollten diese Performance-Darstellungen zumindest als zusätzliche Alternative zur klassischen Signal-to-Noise-Bestimmung für Vergleiche und die Evaluierung der Leistungsfähigkeit von MS-Systemen bei der Installation etabliert werden.

AUTOR
Wolfgang Brodacz

Literatur
[1] Agilent Technical Overview 5990-8341EN "Why use Signal-To-Noise as a Measure of MS Performance When it is Often Meaningless?"
[2] Terry L. Sheehan, Richard A. Yost, "What’s the Most Meaningful Standard for Mass Spectrometry: Instrument Detection Limit or Signal-to-Noise Ratio?"; Current Trends in Mass Spectrometry (Special Issues) Volume 13, Number 4, October 2015 Volume 13, Issue 4, pg 16–22; Oct. 2015
[3] Technical Overview Agilent 5990-7651EN "Why Instrument Detection Limit (IDL) is a Better Metric for Determining The Sensitivity of Triple Quadrupole LC/MS Systems"
[4] SCIEX 0923810-01 "Defining Lower Limits of Quantitation - A Discussion of S/N, Reproducibility and Detector Technology in Quantitative LCMSMS Experiments"; 2010

Anzeige
Jetzt Newsletter abonnieren

Das könnte Sie auch interessieren

Anzeige

Grenzen der Laserbeugung bei der...

Überkornanalyse

Wenige grobe Partikel in einer ansonsten deutlich feineren Probe stellen bei verschiedenen Anwendungen wie z. B. der Herstellung von Tintenstrahldruckpulvern oder Schleifmitteln ein Problem dar. Die Autoren zeigen hier mit Anwendungsbeispielen, wie...

mehr...
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige