zurück zur Themenseite

Artikel und Hintergründe zum Thema

Künstliche Intelligenz im Labor

Aus Daten lernen

Systeme künstlicher Intelligenz (KI) ziehen in die Labore ein? Sie übernehmen lästige Routinearbeiten, unterstützen bei der Qualitätssicherung und entdecken bislang verborgenes Wissen – so die Theorie. Tatsächlich gibt es erst wenige Unternehmen, die KI tatsächlich nutzbringend einsetzen. Der Großteil der Unternehmen müsste dagegen zunächst eine digitalisierte Basis schaffen, um überhaupt die Voraussetzungen für eine erfolgreiche KI-Nutzung zu erfüllen. Bereits ohne KI würde eine Digitalisierung und Vernetzung ein äußerst großes Optimierungspotenzial erschließen.
© fotomek/stock.adobe.com

Die unterschiedlichsten Systeme künstlicher Intelligenz sind seit vielen Jahren im Einsatz, und die Anzahl steigt kontinuierlich. Das betrifft nicht nur den privaten Alltag. Längst wurden in vielen Industriezweige und Unternehmen Einsatzbereiche identifiziert, in denen KI unliebsame Alltagsaufgaben erleichtern, Produktqualität verbessern, neue Serviceangebote erschließen und Entscheidungsfindung unterstützen oder sogar automatisieren kann. Im Laborumfeld sieht die Realität jedoch noch anders aus. Das überrascht auf den ersten Blick, denn grundsätzlich sind die Einsatzmöglichkeiten von KI im Labor ebenso vielseitig und lohnend wie in allen anderen Industriezweigen, die seit einigen Jahren auf KI-Unterstützung setzen.

KI im Labor

Dass der Einsatz von KI im Labor derzeit trotz des großen Potenzials noch so gering ist, hat zwei Hauptgründe: Zum einen erfordert KI digitale Daten – wie sie in zahlreichen Laboren noch nicht vorliegen. Diese benötigen deshalb zunächst eine passende Infrastruktur, um von KI profitieren zu können. Zum anderen erkennen Unternehmen häufig noch nicht, dass der Einsatz von KI ein möglicher Lösungsweg für ein bereits identifiziertes Einzelfallproblem ist. Zudem befürchten viele Laborverantwortliche hohe Entwicklungskosten für eine eigene KI-Lösung mit unklarem Endergebnis. Dem kann in einem strukturiert durchgeführten KI-Projekt durch eine erste Einschätzung begegnet werden.

Anzeige

Vorbereitung: Daten verfügbar machen

Systeme künstlicher Intelligenz benötigen zum Teil große Mengen an digitalen Daten. Bevor sie für die KI-Entwicklung zum Einsatz kommen, bieten sich im Vorfeld bereits erste Datenanalysen an. Diese kommen mit einer geringeren Menge an Daten aus und liefern häufig schon erste Antworten auf die konkrete Fragestellung. Ob Unternehmen diese Daten bereits gesammelt haben oder erst anfangen zu sammeln, hat allenfalls zeitliche Auswirkungen. Mit einem Großteil der verfügbaren Daten trainieren Datenwissenschaftlerinnen und -wissenschaftler (Data Scientists) das KI-Modell. So lernt es, Muster und Zusammenhänge in den Daten zu erkennen, sich dies zu merken und dieses Wissen eigenständig anzuwenden. Je besser die Trainingsdaten, desto besser das Wissen. Der andere Teil der Daten dient als Testumgebung: Die Data Scientists testen mit diesen Daten die Qualität der KI.

Eine große Herausforderung im Laborumfeld ist derzeit, Daten zu digitalisieren und mittels durchgängiger Vernetzung verfügbar zu machen. Viele Laborgeräte arbeiten autark, sind weder innerhalb des Labors mit einem LIMS oder einer Middleware verbunden noch über das Internet für die Gerätehersteller erreichbar. Dadurch bleiben derzeit vielerorts gleich drei Chancen ungenutzt:

1. Geräteherstellern fehlen bislang große Datensätze zur Nutzungsform ihrer Geräte (beispielsweise Einsatzzeiten, Temperaturdaten, Energieverlaufsprotokolle, Vibrationsanalysen etc.) und sie können dementsprechend auch keine Serviceleistungen wie Ausfallvorhersagen oder intelligente Wartungsintervalle anbieten.

2. Softwarehersteller für LIMS- und Middleware-Lösungen können zwar KI-Module für generische Vereinfachung im Labor anbieten, es fehlen aber Versuchs- und Prozessdaten aus den Laboren, um die Module mit entsprechenden Daten zu füttern.

3. Die Labore haben das größte Nachsehen. Noch heute werden vielerorts Versuchsdaten per USB-Stick oder sogar händisch in ein LIMS übertragen oder Laborbücher manuell ausgefüllt. Das bedeutet nicht nur einen hohen Zeitfaktor, sondern auch ein Fehlerrisiko. Hinzu kommt, dass Labore derzeit kaum Chancen haben, ihren spezifischen Herausforderungen mit einer eigenen, individuellen KI-Lösung zu begegnen, da große digitale Datensammlungen meist fehlen.

Die Lösung wäre: Digitalisierung und Vernetzung. Dazu gehört insbesondere eine einheitliche Kommunikationsschnittstelle, so dass sämtliche Laborgeräte unterschiedlicher Hersteller und Disziplinen problemlos mit verschiedenen Laborsoftwares verknüpfbar sind. Ein solcher offener und herstellerunabhängiger Standard ist LADS (Laboratory Analytics Device Standard), wie er derzeit entsteht unter Führung des Branchenverbands Spectaris und in Zusammenarbeit mit rund 40 Mitwirkenden aus der weltweiten Laborbranche. Er basiert auf dem OPC-UA-Standard, den produzierende Unternehmen Anfang der 1990er initiiert haben und der inzwischen weltweit der etablierte Standard im Industrieumfeld ist.

Sobald bislang autarke Laborgeräte mit einer Laborsoftware verbunden werden können, öffnet sich für Labore und auch die Hersteller von Laborgeräten und -software ein riesiges Optimierungspotenzial. So könnte eine breite Masse von Laboren ihre Versuchsabläufe, Prozesse und Dokumentation automatisieren. Dadurch sinkt das Fehlerrisiko, im Gegenzug steigt die Flexibilität und ohnehin schon knappe Personalressourcen stehen für wertvollere Aufgaben zur Verfügung, als Daten von einem System in ein anderes System zu übertragen. Und es entsteht damit auch – sozusagen als Nebenprodukt  – die Möglichkeit, Daten im großen Stil zu sammeln  – die Grundlage für den Einsatz von KI..

Von Daten zum fertigen KI-Tool

Die Entwicklung eines Systems künstlicher Intelligenz ist grundsätzlich unabhängig von der Branche, in der es eingesetzt wird. Data Scientists abstrahieren vom branchenspezifischen Anwendungsfall auf eine datenzentrierte Sichtweise und wählen das passende Modell und geeignete Methoden, um das Modell zu trainieren. Ob eine KI die Ausfallvorhersage für eine Gasturbine oder für einen Pipettierroboter übernehmen soll, ist also für die Entwicklung der KI im Grunde nebensächlich.

Häufig sammeln Unternehmen zunächst wahllos Daten und hoffen, „dass man daraus später mal irgendwelches Wissen herausziehen kann“. Tatsächlich ist es möglich zu prüfen, ob statistische Verfahren und neuronale Netze Auffälligkeiten, Muster und Zusammenhänge in diesen Daten finden, die den Verantwortlichen bislang unbekannt waren. Die Erfolgschancen sind jedoch im Vorfeld unklar und die Wirtschaftlichkeit lässt sich erst im Nachhinein beurteilen.

Ideal ist hingegen, wenn in Unternehmen bereits eine konkrete Aufgabenstellung oder ein Problem identifiziert wurde, dessen Lösung das Unternehmen in seiner Entwicklung und Wettbewerbsfähigkeit voranbringen kann. Im Falle eines Geräteherstellers könnten das beispielsweise Geräteausfälle sein, deren Ursache und Früherkennung wichtig ist, um sowohl robustere Geräte zu entwickeln als auch ungeplante Ausfallzeiten der Geräte bei den Kunden minimieren zu können. In Laboren wäre z. B. die Optimierung der Qualitätskontrolle ein möglicher Anlass für das Entwickeln einer KI-Lösung.

KI-Projekte lassen sich in unstrukturiert (gesammelte Daten ohne konkretes Ziel auf bislang unbekanntes Wissen durchsuchen) und strukturiert (konkrete Aufgabenstellung) unterteilen. Strukturierte KI-Projekte durchlaufen üblicherweise drei bis vier Schritte, wobei jeder Schritt transparente Ergebnisse liefert. Strukturierte KI-Projekte sind somit gut kalkulierbar und beinhalten definierte Punkte, um die Wirtschaftlichkeit des Projekts immer wieder zu prüfen. © infoteam Software

So kann es aussehen: Anhand eines konkreten Anwendungsfalls können die Datenwissenschaftler ein strukturiertes KI-Projekt starten, bei dem auch der Nutzen jederzeit transparent sind: Mit einer Datenexploration klären sie noch vor dem Projektstart, welche Daten notwendig sind, ob bereits verfügbare Daten für den jeweiligen Anwendungsfall passen und in welcher Form die Daten vorliegen müssen. Erst danach entsteht im zweiten Schritt mittels „Rapid Prototyping“ ein erstes KI-Modell, das Aufschluss darüber gibt, ob eine vollumfassende KI-Modellierung überhaupt wirtschaftlich und inhaltlich sinnvoll ist. Wenn ja, entwickeln und trainieren Data Scientists sowie Softwareentwicklerinnen und -entwickler das KI-Modell, bauen Datenpipelines für einen kontinuierlichen Datenfluss im späteren Praxiseinsatz auf, binden die KI in Benutzeroberflächen und bestehende IT-Infrastruktur ein und entwickeln optional Wartungsmechanismen und -routinen.

Massenspektren mit KI beurteilen

Auch beim Unternehmen Microsynth, wo bald Künstliche Intelligenz in Laboren zum Einsatz kommen soll, durchläuft das KI-Projekt derzeit genau dieses Schema. Die Microsynth AG mit Hauptsitz in Balgach in der Schweiz hat sich auf spezifische DNA- und RNA-Oligonukleotidsynthesen spezialisiert. Bevor die produzierten Oligonukleotide an die Kunden gehen, durchlaufen sie eine strenge Qualitätskontrolle: Mittels Massenspektrometrie ermitteln Expertinnen und Experten, ob die produzierten Oligonukleotide in ihrer Zusammensetzung den Vorgaben der Auftraggeber entsprechen. Hierfür sichtet eine Person jedes erzeugte Massenspektrum und beurteilt, ob die Peaks dem zu erwartenden Bild entsprechen oder ob es außergewöhnliche Peaks gibt. Bei Microsynth fallen pro Tag bis zu 2.000 Messungen an, die innerhalb weniger Stunden und vor dem Versand der Oligonukleotide begutachtet werden müssen – eine wichtige Arbeit, aber auch ein hoher Zeit- und Kostenfaktor. Die Verantwortlichen stellten sich deshalb die Frage, ob eine KI die Qualitätskontrolle unterstützen oder sogar automatisiert übernehmen könnte. Die Idee: Eine KI prüft die Messergebnisse und „holt“ nur dann menschliche Unterstützung zu Hilfe, falls die Kontrolle nicht den Erwartungen entspricht. So würde die KI den Bewertungsprozess beschleunigen, und die menschlichen Expertinnen und Experten hätten mehr Zeit für andere wertschöpfende Arbeiten.

Die Massenspektrometrie gibt Aufschluss über die Zusammensetzung der produzierten Oligos. Oben: Massenspektrum eines sauberen Oligonukleotids, unten: Oligonukleotid mit Syntheseabbruch. Bislang bewerten (menschliche) Experten und Expertinnen die Massenspektren, zukünftig soll eine KI in der Lage sein, die Bilddaten zu analysieren und zu erkennen, welche Peaks zum Spektrum des Hauptprodukts gehören und welche nicht da sein sollten. © Microsynth

Microsynth hat von den beauftragten Data Scientists ein positives Feedback zur Machbarkeit eines KI-Tools und eine Hausaufgabe bekommen: Es bedarf Daten. Damit die gewünschte KI später die Massenspektren eigenständig beurteilen kann, benötigt sie Spektren verschiedenster Oligonukleotide als Datenbasis. So lernt sie, was korrekte Ergebnisse sind und welche Ergebnisse von der Norm abweichen. Die Erstellung der Datenbasis ist zwar mit Arbeit verbunden, zahlt sich aber mit umso präziseren KI-Ergebnissen aus. Naheliegend ist, die Daten der vielen täglichen Messungen nun systematisch zu speichern und mit den Labels „korrektes Spektrum“ oder „auffälliges Spektrum“ zu versehen. Möglicherweise kann aber auch ein von Google entwickeltes KI-Modell zur Vorhersage von Massenspektren unterstützen.

AUTOREN
Dr. Daniela Franz, Dr. Stefano Signoriello, Patrick Kraus
infoteam Software AG, Bubenreuth
Tel.: 09131/78 00-0
[email protected]
www.infoteam.de

Infoteam Software ist im Mai auf folgenden Veranstaltungen:
M3-Konferenz (zum Thema Data-Science): 9. bis 11. Mai in Karlsruhe
MedtecLIVE: 23. bis 25 Mai 2023 in Nürnberg; Halle 1, Stand 230
FUTURE LABS LIVE: 31. Mai bis 2. Juni in Basel

Anzeige
516.6 KB
Praxisbeispiel für KI im LaborQuelle: infoteam Software
63.9 KB
Massenspektrum 1Die Massenspektrometrie gibt Aufschluss über die Zusammensetzung der produzierten Oligos. Hier: Massenspektrum eines sauberen Oligonukleotids. Bild: Microsynth
67.6 KB
Massenspektrum 2Oligonukleotid mit Syntheseabbruch. Bislang bewerten (menschliche) Experten und Expertinnen die Massenspektren, zukünftig soll eine KI in der Lage sein, die Bilddaten zu analysieren und zu erkennen, welche Peaks zum Spektrum des Hauptprodukts gehören und welche nicht da sein sollten. Bild: Microsynth
zurück zur Themenseite
Jetzt Newsletter abonnieren

Das könnte Sie auch interessieren

Anzeige

Labvolution-Nachbericht

Nachhaltig, digital, vernetzt

Nach drei ereignisreichen Messetagen zogen die Veranstalter der Labvolution ein positives Fazit. Aussteller, Besucher und Besucherinnen zeigten sich zufrieden. Nachhaltigkeit, Digitalisierung, Vernetzung und Automation waren zentrale Themen der...

mehr...
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige

Anzeige

HM-Office - Die digitale Lösung für Labore

Für Laborbetreiber gibt es eine gute Nachricht: Der IT-Spezialist HM-Software aus Celle bietet ihnen mit HM-Office eine ganzheitliche Lösung, die sämtliche Laborabläufe miteinander vereint. Dies stets gemäß ihren individuellen Bedürfnissen und dem...

mehr...