Custom AI: Data und Software-Engineering von Beginn an richtig

Das richtige technische Fundament für die Datenerfassung,-verwaltung und -analyse ist ein zentraler Schlüssel für ein erfolgreiches AI-Projekt. So muss zunächst eine Datenpipeline zu einem zentralen Data Lake gelegt werden. Beim «Ingest» der Daten muss darauf geachtet werden, dass diese ordentlich aufbereitet werden (z. B. Timestamps bereinigt und fehlerhafte Daten entfernt).

Sind die Daten einmal vorhanden, können mithilfe von Machine Learning (ML) – z.B. neuronalen Netzen – sogenannte Modelle erstellt werden. Ein Modell ist eine Funktion, die anhand einer gegebenen Eingabe eine bestimmte Ausgabe erzeugt (z.B. die Ausgabe «fehlerhaft» anhand bereitgestellter Messdaten). Die Parameter der Funktion werden dabei von der Maschine selbstständig mithilfe einer grossen Menge an vorgegebenen Ein-/Ausgabepaaren erlernt.

AI-Modelle müssen wie jede andere Software weiterentwickelt und versioniert werden. Die ML-Algorithmen werden kontinuierlich (d.h. auch nach der Auslieferung des ersten Modells in die Produktion) mit neuen Daten trainiert, um neue, bessere Modelle zu erstellen. Da insbesondere die Erstellung neuer Modelle sowie deren Nutzung sehr stark skalierbar sein müssen, ist eine Umsetzung auf einer Public-Cloud beinahe eine Grundvoraussetzung für ein wirtschaftliches und erfolgreiches AI-Projekt.