Fingerprinting-Methoden für Routineanalytik

„Cutting Edge-Lebensmittelanalytik“

Die Autoren von der Universität Hamburg zeigen Möglichkeiten von Fingerprinting-Methoden auf, um Lebensmittelfälschungen auf die Spur zu kommen, und beschreiben Hintergründe und Vorgehensweise dieser Analytik.

Die Entwicklung von Analysemethoden zur Überprüfung der Lebensmittelauthentizität und damit auch der Lebensmittelsicherheit ist in Zeiten wachsender globaler Warenströme eine zunehmende Herausforderung geworden. Aus diesem Grund sind in den letzten fünf Jahren sog. non-targeted, also nicht-zielgerichtete Fingerprinting-Methoden immer mehr in den Fokus gerückt, die nicht auf einzelne Analyten, sondern auf möglichst umfassende Analytprofile abzielen.
© Natalia Lisovskaya/Shutterstock.com

Die Verfälschung von Lebensmitteln ist nicht neu und lässt sich bis in das 17. Jhd. v. Chr. zurückverfolgen. Jedoch haben sich die manipulativen Methoden geändert, so dass moderne Plagiate immer schwieriger nachgewiesen werden können. Vergleichbar ist diese Situation mit Doping im Hochleistungssport, das ebenfalls immer ausgefeilter und damit auch schwerer überprüfbar wird. Um diesem hochdynamischen Prozess, entsprechende Maßnahmen entgegensetzen zu können, müssen fortlaufend Strategien angepasst sowie weiter- bzw. neu entwickelt werden. Diese reichen von Blockchain-Ansätzen über die Markierung von Lebensmitteln bis hin zur unentwegten Entwicklung neuer Analysemethoden. Gefordert werden hochentwickelte Ansätze von allen an der Wertschöpfungskette beteiligten und betroffenen Parteien, die einerseits verantwortlich sind für die Sicherheit der Lebensmittel und sich andererseits im Auftrag des Verbrauchers sehen: Allen voran die Unternehmen der Lebensmittelwirtschaft, gefolgt von den staatlichen Überwachungseinrichtungen und nicht zuletzt von den Verbraucherschützern.

Anzeige

Besonders relevante Fragestellungen fokussieren sich auf Methoden zum Nachweis von sogenannten Prozessqualitäten, wie der geographischen Herkunft, der biologischen Anbauweise, der Verwendung bestimmter pflanzlicher Sorten bzw. Tierarten, dem Frischegrad der Produkte sowie dem Nachweis von unerwünschten Surrogaten und häufig auch von unbekannten Additiven oder Kontaminanten. Derartig diffizile Fragestellungen können nicht mit den klassischen, hypothesengetriebenen, lebensmittelchemischen Analysenmethoden bearbeitet werden, die sich in der Regel nur auf einige wenige, vorab bekannte Verbindungen stützen (targeted Verfahren), sondern es bedarf diesbezüglich disruptiver, hypothesenfreier Vorgehensweisen. Vor diesem Hintergrund werden bei non-targeted Analysen umfangreiche Profile mittels verschiedener Screening-Ansätze aufgenommen. Diese Methoden werden auch als Fingerprinting-Verfahren bezeichnet, bei denen möglichst viele Analyten vergleichend qualitativ und zum Teil auch semi-quantitativ hypothesenfrei, d. h. ohne vorhergehende Identifizierung also non-targeted erfasst werden.

Je nach Fragestellung eignen sich hierfür unterschiedliche zelluläre Ebenen wie die DNA, deren vollumfängliche Analyse als Genomics bezeichnet wird, sowie die Untersuchung sämtlicher Proteine (Proteomics), Metabolite (Metabolomics) oder Elemente bzw. Isotopenverhältnisse (Isotopolomics). Dieser Herangehensweise liegt zugrunde, dass auf die Zusammensetzung der aufgeführten zellulären Ebenen verschiedene endogene und exogene Faktoren einwirken, die sich im Profil der Analyten widerspiegeln. Das erhaltene Muster ist dabei sowohl das unmittelbare Abbild (Phänotyp) des genetischen Hintergrunds (Genotyp) als auch der äußeren Faktoren, die auf das Lebensmittel eingewirkt haben. Die Eindeutigkeit ist vergleichbar mit der eines menschlichen Fingerabdrucks, weshalb dieser analytische Weg auch als „Fingerprinting“ bezeichnet wird. Wie bei der forensischen Daktyloskopie, basieren die Food-Fingerprinting-Ansätze auf einem Vergleich der Muster unbekannter Proben mit Referenzmustern, die zunächst verlässlich erfasst und mit den dazugehörenden Metadaten in eine Datenbank eingespeist werden müssen.

Workflow von non-targeted Analysen

Bei der Etablierung von non-targeted Methoden sind einige Anforderungen zu berücksichtigen. Ein exemplarischer Workflow, der auf verschiedene Fragestellungen und Analyseverfahren angewendet werden kann, ist in Bild 1 dargestellt.

Bild 1: Exemplarischer Workflow für Fingerprinting-Analysen. © Copyright 2020 Wiley. Verwendung mit Genehmigung von: M. Creydt, M. Fischer, Food authentication in real life: How to link nontargeted approaches with routine analytics?, Electrophoresis.

Nach dem Studiendesign muss zunächst eine geeignete Probenahme von authentischem Referenzmaterial durchgeführt werden, um eine Referenzdatenbank aufzubauen, mit der später die unbekannten Proben verglichen werden können. Im Anschluss an die Probenahme erfolgen der Transport, die Lagerung sowie die Probenvorbereitung und -extraktion. Es handelt sich dabei um eine „nicht-klassische“ Konventionsmethode, bei der alle Schritte klar definiert und dementsprechend befolgt werden müssen. Jeder dieser Schritte kann einen entscheidenden Einfluss auf das Analysenergebnis haben und erfordert daher eine sorgfältige Planung, um Varianzen weitestgehend auszuschließen und die Vergleichbarkeit der Proben zu gewährleisten. Die Datenaufnahme von non-targeted Methoden führt in der Regel zu sehr großen Datensätzen, die zur besseren Auswertbarkeit in einem nachfolgenden Schritt reduziert und für die entsprechende Infrastrukturen eingeplant werden müssen. Für die Auswertung eignen sich sowohl kommerzielle als auch frei verfügbare Programme, beide haben ihre Vor- und Nachteile. Während kommerzielle Software häufig einfacher zu verwenden ist, bieten die meist kostenlosen Open-Source-Programme die Möglichkeit, weitere Algorithmen zu importieren und sind dementsprechend flexibler. 

Downstream-Ansätze

In der Regel erfordern Fingerprinting-Methoden hochauflösende technologische Plattformen, die ein detailliertes molekulares Abbild der Probe erzeugen („Maxi-Fingerprint“). Derartige analytische Geräte sind jedoch meist sehr teuer, benötigen einen hohen Wartungsaufwand und entsprechend geschultes Personal, so dass die Etablierung von diesen Vorgehensweisen in die Routineanalyse nicht ganz einfach ist. In einigen Fällen sind Fingerprinting-Methoden, die auf technologischen Plattformen mit niedriger Auflösung durchgeführt werden, bereits ausreichend. Eine andere Möglichkeit besteht darin, die Fingerprinting-Verfahren auf targeted Methoden zu reduzieren, indem zuerst die relevanten Markersubstanzen bzw. Sequenzen, bei DNA- oder proteinbasierten Ansätzen, mithilfe von Fingerprinting-Methoden identifiziert, also sog. Hypothesen generiert und dann die geeigneten targeted Methoden zur Bestimmung dieser Unterschiede („Mini-Fingerprints“) entwickelt werden. Ein solcher Schritt erfordert viel Vorarbeit und geht zudem häufig mit einem Informationsverlust einher, der zu weniger aussagekräftigen Ergebnissen führen kann. Jedoch ist der wesentliche Vorteil dabei in den späteren Kosten pro Analyse zu sehen. Zudem besteht weiterhin die Möglichkeit bei nicht eindeutigen Ergebnissen oder bei unklaren Verdachtsfällen, eine zusätzliche Analyse auf einem hochauflösenden Gerät durchzuführen. Ähnlich der Vorgehensweise bei einem Schwangerschaftstest, bei dem die finale Absicherung durch einen Arzt vorgenommen wird.

Anwendungsbeispiel: Metabolomics-basierte Analysen in der Routineanalytik

Die Analyse von Metaboliten ist besonders geeignet, wenn bspw. die geographische Herkunft eines Lebensmittels bestimmt werden soll, da neben dem vergleichsweise statischen genetischen Hintergrund vorrangig exogene Faktoren (siehe Bild 2) einen hohen Einfluss auf die Konzentration bestimmter Stoffwechselprodukte aufweisen können. Dabei sind überwiegend Stoffwechselwege betroffen, die im Zusammenhang mit unterschiedlichen pflanzlichen Stressparametern stehen. 

Bild 2: Verschiedene endogene und exogene Parameter, die einen Einfluss auf die chemische Zusammensetzung pflanzlicher Proben haben können. © 2020 Wiley. Verwendung mit Genehmigung von: M. Creydt, M. Fischer, Food authentication in real life: How to link nontargeted approaches with routine analytics?, Electrophoresis.

Für die Untersuchung von Metaboliten kommen vorrangig hochauflösende Massenspektrometer (MS) sowie Kernresonanzspektrometer (NMR) zum Einsatz. So sind in der Routineanalyse mittlerweile einige Metabolom-basierte Fingerprinting-Ansätze mittels NMR-Spektroskopie etabliert worden. Sowohl kommerzielle Laboratorien als auch diverse staatliche Überwachungsbehörden haben bereits NMR-Geräte in ihr Technologieportfolio aufgenommen. Die Analyse mittels NMR dauert nur wenige Minuten und die Auswertung kann automatisch durchgeführt werden. Normalerweise werden 400-MHz-Spektrometer für den Lebensmittelbereich verwendet und 1H- oder 13C-NMR-Spektren aufgezeichnet. Hochauflösende NMR-Spektrometer mit 800 MHz und mehr sind zwar seit einigen Jahren ebenfalls verfügbar, aber aufgrund der hohen Anschaffungskosten und der ebenfalls sehr teuren Laborinfrastruktur haben sich bisher nur die 400-MHz-Geräte für den Routineeinsatz durchgesetzt. Darüber hinaus sind auch Niederfeldgeräte mit 40 bis 90 MHz erhältlich. Diese Tischinstrumente arbeiten mit wartungsarmen, aber auch weniger leistungsstarken Permanentmagneten und benötigen lediglich einen Stromanschluss. Im Vergleich dazu ist der Wartungsaufwand für die größeren Geräte erheblich höher, da flüssiger Stickstoff und Helium zur Kühlung der Magneten erforderlich sind. Ein wesentlicher Nachteil besteht allerdings darin, dass die kleineren Geräte eine viel geringere Auflösung aufweisen, d. h. unter Umständen reicht das Auflösungsvermögen für diffizile Fragestellungen nicht aus. Unabhängig vom verwendeten Gerät, ist der Vorteil von NMR-Datenbanken in einer guten Reproduzierbarkeit zu sehen, da somit die Daten leicht verglichen werden können.

Gegenüber NMR-Geräten können mittels hochauflösenden MS-Analysatoren (überwiegend Time-of-Flight-Analysatoren, ToF) deutlich mehr Analyten nachgewiesen werden (statt ca. 200 ca. 5 000), d. h. ein derartiger molekularer Fingerabdruck besteht aus viel mehr Datenpunkten und ist dadurch eindeutiger. Auch wird dadurch die Wahrscheinlichkeit erhöht, relevante Markersubstanzen, die eine Unterscheidung verschiedener Probengruppen ermöglichen, detektieren zu können. Hierbei ist jedoch insbesondere die geringe Reproduzierbarkeit der MS-Geräte von Nachteil, so dass es schwierig ist vergleichbare Datenbanken aufzubauen. Aus diesem Grund werden derzeit verschiedene Strategien entwickelt, wie dennoch unterschiedliche MS-basierte Messungen vereinheitlicht werden können.

Ausblick

Für eine vollumfängliche Beurteilung von Lebensmitteln hinsichtlich ihrer Sicherheit, aber auch um Betrugsversuche erkennen zu können, wird es zunehmend wichtiger, das biologische System in seiner Gesamtheit zu analysieren. Aufgrund der mannigfaltigen Entwicklungen und des rasanten Fortschritts ist davon auszugehen, dass sich Fingerprinting-Methoden aufgrund ihrer außerordentlich hohen Leistungsfähigkeit in der Routineanalytik durchsetzen werden, auch wenn derzeit noch einige Harmonisierungs- und Standardisierungsprozesse erforderlich sind.

AUTOREN
Dr. Marina Creydt und Prof. Dr. Markus Fischer 
Universität Hamburg
Hamburg School of Food Science
www.hsfs.org / www.food-profiling.org

Referenz/Originalpublikation:
“Food authentication in real life: How to link nontargeted approaches with routine analytics?”; https://doi.org/10.1002/elps.202000030

Anzeige

Das könnte Sie auch interessieren

Anzeige
Anzeige
Anzeige
Anzeige

Kryogene Homogenisierung

Kalt aufbereitet

Die Homogenisierung von Lebensmittelproben ist ein wichtiger Schritt vor der Analyse. Aufgrund der vielfältigen Beschaffenheit von Nahrungsmitteln – trocken, feucht, klebrig, zäh, hart, weich usw. – stellt die reproduzierbare Aufbereitung einer...

mehr...
Anzeige
Anzeige
Anzeige

Newsletter bestellen

Immer auf dem Laufenden mit dem LABO Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite