Forschung beschleunigen

KI-Methoden in der Arzneimittelforschung nutzen

Proteine mit genau den richtigen Eigenschaften zur Behandlung von Krankheiten zu finden oder zu entwickeln, ist äußerst komplex. Erst in den letzten Jahren sind die ersten KI-basierten kleinen Moleküle in die klinische Erprobung gegangen und haben damit eine neue Ära in der Arzneimittelforschung eingeleitet.

© Graphcore

Mit dem Ziel, Antikörper-Therapeutika gegen Krebs und entzündliche Erkrankungen zu entwickeln, nutzt das britische Start-up-Unternehmen „LabGenius“ in der Forschung eine Kombination aus künstlicher Intelligenz, synthetischer Biologie und Laborautomatisierung. Auch mit modernen Technologien für das Proteindesign ist es eine große Herausforderung zu erkennen, wie die Aminosäuren eines Proteins genau angepasst werden müssen, um die Funktion des Proteins zu verbessern. Labgenius hat für solche Problemstellungen ein automatisiertes, geschlossenes System zur besseren Handhabung der experimentellen Iterationen und des ständigen Wechsels zwischen biologischen Experimenten und ML (Machine Learning)-basierter Entscheidungsfindung entwickelt. Auf der Suche nach der geeigneten Proteinzusammensetzung werden die Proteine sequenziert, auf intelligente Weise analysiert, verändert und neu synthetisiert.

Aussagekräftige Daten erhalten

In den Labgenius-Laboren können Besucher den physischen Teil des Prozesses in Aktion sehen, wenn Maschinen zur Bearbeitung von Flüssigkeiten Probenschalen füllen, die dann von Roboterarmen aufgenommen und zur nächsten Experimentierphase transportiert werden. Hier trifft das Experimentieren im Nasslabor auf die Datenwissenschaft. Als größtes Problem im KI-Bereich bei jeder Herausforderung in der Biologie nennt Dr. Katya Putintseva, Machine Learning Advisor bei Labgenius – wenn man Vergleiche mit der Verarbeitung natürlicher Sprache oder der Bilderkennung anstellt –, den Mangel an qualitativ hochwertigen Daten, die repräsentativ genug für die interessantesten Merkmale sind, und erläutert: „Es gibt eine Menge Daten, aber der Teufel steckt immer im Detail. Wie wurde dieser Datensatz erstellt? Welche Tendenzen enthält er? Wie weit kann das daraus extrahierte Signal innerhalb des Sequenzraums extrapoliert werden?“ Die Roboterplattform von Labgenius soll nun die „richtige Art“ von Daten in der Qualität, die für die Machine-Learning-Modelle benötigt wird, generieren und charakterisieren.

Anzeige
„MACSQuant Analyzer 10“-Durchflusszytometer im Labor von LabGenius. © Graphcore

Da wäre zunächst ein klassisches KI-Problem zu nennen: Wie lassen sich viele Variablen in hoch komplexen Systemen optimieren? „Wir nennen dies Ko-Optimierung oder Mehrzieloptimierung“, erklärt Tom Ashworth, Head of Technology, Labgenius. „Man könnte versuchen, die Wirksamkeit zu optimieren, was sich auf die Affinität des Moleküls beziehen könnte, d. h., wie sehr es an seinem Ziel haftet. Aber gleichzeitig möchte man nicht dessen Sicherheit oder vielleicht eine andere Eigenschaft wie die Stabilität des Moleküls in Gefahr bringen.“ Mit Hilfe des KI-gestützten Ansatzes können Informationen darüber erhalten werden, wie die Iteration bei den Experimenten erfolgt. „Das System sucht nach verschiedenen Merkmalen, die wir am Molekül ändern könnten – von Punktmutationen einfacherer Konstrukte bis hin zur Gesamtzusammensetzung und Topologie von Proteinen mit mehreren Modulen. Es macht Vorschläge zum nächsten erforderlichen Designschritt, um zu erfahren, wie eine Änderung des Inputs zu einer Änderung des Outputs führt“, so Tom Ashworth.

KI-Tool zur Vorhersage

Das Modell „BERT“ (für: Bidirectional Encoder Representations from Transformers), das vor allem für die Verarbeitung natürlicher Sprache bekannt ist, findet nun ein immer breiteres Anwendungsspektrum, auch in der Biotechnologie. Die Forschenden versuchen, über das auf Basis einer großen Menge bekannter Proteine mit Hilfe von BERT trainierte Tool maskierte Aminosäuren vorherzusagen und so mehr über die grundlegende Biophysik von Proteinen zu lernen. „Die verborgenen Werte dieses Modells helfen uns also dabei, aussagekräftige Darstellungen von Proteinen zu erstellen, die wir anschließend verwenden, um das gewünschte Merkmal zu gestalten“, so Dr. Putintseva.

Faktor Zeit in der Forschung

Ein KI-Tool zu trainieren, das braucht Zeit. Durch den Einsatz von IPU-Chips von Graphcore konnten die Rechenzeiten für das Training von KI-Modellen deutlich reduziert werden. Bisher habe es etwa einen Monat gedauert, bis ein funktionierendes Modell für alle vorhandenen Proteine gefunden wurde, wie Dr. Putintseva berichtet. „Mit Graphcore haben wir die Durchlaufzeit auf etwa zwei Wochen verkürzt, so dass wir unsere Experimente nun viel schneller durchführen und die Ergebnisse schneller sehen können“. Tom Ashworth bringt einen weiteren Aspekt ein. Durch den reduzierten Zeitaufwand für das Modelltraining seien die Datenwissenschaftler auch flexibler und könnten schnelller reagieren. „Für ein Start-up-Unternehmen wie das unsere ist es von zentraler Bedeutung, wie schnell wir reagieren und wie schnell wir uns weiterentwickeln können.“

AUTOR
Alex Titterton
Field Application Engineer
Graphcore Limited, UK-London
info@graphcore.ai
www.graphcore.ai

Anzeige

Das könnte Sie auch interessieren

Anzeige
Anzeige
Anzeige

Assistenzsystem

Cobot mit 3D-Kamera und KI

Beim Unternehmen „bAhead“ wurde eine Lösung konzipiert, die Labormitarbeitende unterstützen kann. Das Kernelement ist ein kleiner kollaborierender Roboterarm namens Buddy, der Geräte bedienen oder auch Pipettieren und logistische Prozesse übernehmen...

mehr...
Anzeige
Anzeige
Anzeige
Anzeige