Digitale Technologien zur Prozessoptimierung in industriellen Umfeldern

Die Wettbewerbsfähigkeit nimmt in vielen Branchen zu. In manchen Umfeldern tragen Überkapazitäten dazu bei, in anderen Anbieter aus Niedriglohnländern. Aber auch mit Standorten in Niedriglohnländern tun sich viele Unternehmen schwer, denn sie müssen sich auf veränderlichen Weltmärkten positionieren.

Natürlich besteht in allen Unternehmen klassisches Verbesserungspotenzial, mit dem Kosten gesenkt und attraktive Produkte an den Markt gebracht werden können. Darüber hinaus entstehen mit neuen Technologien weitere Möglichkeiten, die Effizienz zu steigern und Geschäftsmodelle zu innovieren.

Solche Möglichkeiten können oft erst mit der Digitalisierung der Geschäftsprozesse und der Integration und Auswertung von Prozessdaten erschlossen werden. Welche konkreten Möglichkeiten es gibt, erfahren Sie in diesem Artikel.

Zu beachten sind folgende Aspekte:

  • Eine Digitalisierungsstrategie mit Bezug zum Geschäft
  • Die nutzenorientierte Digitalisierung von Geschäftsprozessen
  • Die Erfassung und Auswertung relevanter Prozessdaten
  • Die Möglichkeiten, die IIoT und Cloud Computing bieten
  • Anforderungen an das Datenmanagement, einschließlich der Datenintegration
  • Die Möglichkeiten, Big Data mit Business Analytics auszuwerten
  • Besondere Infrastrukturaufgaben
  • Robotics und Anlagenautomatisierung
  • Qualitätsoptimierung und Effizienzsteigerung durch Anwendungen der Computer Vision
  • Kostengünstige Prozessmodellierung und -simulation mit Digital Twins

Auf diese Aspekte wird im Folgenden näher eingegangen.

Digitalisierung im Betrieb

„Digitalisierung“ ist zu einem Buzzword geworden. Doch die Wenigsten, die den Begriff verwenden, wissen, was damit eigentlich verbunden ist und was relevant ist.

Um Vorteile der Digitalisierung zu erschließen, muss sie strategisch angegangen werden und systematisch erfolgen.

Digitalisierungsstrategie

Der wichtige erste Schritt zur Digitalisierung besteht also darin, eine schlüssige Digitalisierungsstrategie zu entwickeln, die geeignet ist, das Geschäft zu unterstützen, Kosten zu senken und/oder attraktive Geschäftsmöglichkeiten zu ermöglichen.

Digitalisierung der Geschäftsprozesse

Das Geschäft von Unternehmen wird durch die Geschäftsprozesse definiert. Also sieht man sich am besten zunächst die Geschäftsprozesse an. Das sind in der Regel die Abläufe innerhalb der betrieblichen Funktionen:

  • Marketing-Prozess
  • Vertriebsprozess
  • Kundenservice-Prozess
  • Produktentwicklungsprozess
  • Produktionsprozess
  • Instandhaltungsprozess
  • Logistikprozess
  • Finanzierungsprozess
  • Weitere …

Wenn alle funktionalen Prozesse begrifflich erfasst worden sind, besteht der nächste Schritt darin zu erkennen, zu welchem Grad diese Prozesse explizit entweder verbal oder in Form von Ablaufdiagrammen definiert sind. Außerdem sollten für jeden funktionalen Ziele definiert sein; sollte das noch nicht der Fall sein, sollten sinnvolle Ziele entwickelt werden, die alle etwas zum Ziel des Geschäftsprozesses beitragen sollten.

Entscheidend ist nun, inwieweit die gelebte Realität mit den dokumentierten Prozessbeschreibungen übereinstimmt. Abweichungen deuten auf mangelnde Umsetzungsdisziplin oder mangelhaft definierte Prozesse hin. Die Ursachen für solche Abweichungen sollten nun identifiziert und beseitigt werden.

Aber auch sauber definierte und befolgte funktionale Prozesse sind noch kein Garant dafür, dass das Unternehmen insgesamt effizient und effektiv arbeitet. Dafür müssen die funktionalen Prozesse nämlich miteinander sinnvoll in Verbindung gebracht werden. Erst daraus ergibt sich ein vollständig vernetzter unternehmensweiter Geschäftsprozess, aus dem wechselseitige Abhängigkeiten hervorgehen. Die Geschäftsprozessgestaltung ist ein komplexer Vorgang, weil der Geschäftsprozess üblicherweise komplex ist. Vereinfachungen in der Geschäftsprozessdarstellung, die der Realität nicht gerecht werden, nützen dem Unternehmen nichts. Sie führen zu Mehrfacharbeit, Engpässen und Unzufriedenheit der Mitarbeiter. Deshalb ist eine sorgfältige Geschäftsprozessanalyse und -definition so wichtig. Insbesondere ist die Festlegung von organisationalen Schnittstellen sorgfältig vorzunehmen. Wo betriebliche Abläufe Abteilungsgrenzen überschreiten, müssen Erwartungen mit Möglichkeiten abgeglichen und vereinbart werden. Um den Geschäftsprozess zu stabilisieren, ist vor allem die Gestaltung von Feedback-Schleifen an den Schnittstellen innerhalb und zwischen den Prozessen, und auch nach außen wichtig. Dadurch werden Prozesse regelungsfähig; sie können sich anpassen.

Schließlich sollte eine Erfolgskontrolle in den Geschäftsprozess hineingestaltet werden. In welchen Teilprozessen werden die Ziele erreicht, in welchen eher nicht? Gibt es trotz sorgfältiger Gestaltung Reibung in oder zwischen den Prozessen? Entsprechende Anpassungen der funktionalen Teilprozesse und damit des gesamten Geschäftsprozesses sollte übrigens als eine laufende Aufgabe in den Prozessen angelegt werden, denn die Umfeldbedingungen verändern sich ja auch laufend.

Erst wenn der Geschäftsprozess insgesamt steht und sich in der Praxis bewährt hat, macht es Sinn, über Digitalisierungsschritte nachzudenken. Es lohnt sich, klare Kriterien an die Digitalisierung anzulegen:

  • In welchen Teilprozessen könnten durch eine Digitalisierung unmittelbar Aufwand und Kosten gespart werden?
  • In welchen Teilprozessen könnten Mitarbeiter durch eine Digitalisierung von Routinearbeiten entlastet werden?
  • In welchen Teilprozessen könnte durch eine Digitalisierung die Fehleranfälligkeit reduziert werden?
  • Welche Kosten durch Abweichungen von den definierten Geschäftsprozessen könnten durch eine Digitalisierung des Geschäftsprozesses vermieden werden, indem die digitalen Prozessschritte unmittelbar aus einem digitalen Workflow heraus ausgeführt werden?
  • Wo könnte durch eine Digitalisierung mehrerer Teilprozesse die Durchgängigkeit des Geschäftsprozesses verbessert werden?
  • Durch welche Digitalisierungsschritte könnten Durchlaufzeiten reduziert werden?
  • Welche Teilprozesse könnten durch eine Digitalisierung einen höheren Output erreichen?
  • Welche attraktiven Geschäftsmodelle könnten durch die Digitalisierung von Teilprozessen ermöglicht werden?

Diese Leitfragen geben Hinweise auf die Prioritäten für die Digitalisierung der Geschäftsprozesse. Digitalisierte Workflows erlauben bspw. mehrstufige Genehmigungsverfahren, aber auch die sinnvolle Kopplung von Bearbeitungsaufgaben zwischen Fertigungsinseln in Produktionsprozessen.

Wenn Sie erfahren möchten, wie gut Ihr Unternehmen für die Digitalisierung vorbereitet ist, bietet sich das „Reifegradmodell digitale Geschäftsprozesse“ an, das der Branchenverband bitkom e. V. entwickelt hat (https://www.bitkom.org/Bitkom/Publikationen/Reifegradmodell-Digitale-Geschaeftsprozesse).

Erfassung und Auswertung von Prozessdaten

Jeder Teilprozess generiert laufend Daten. In der Regel werden diese Daten nur teilweise genutzt. Wenn die Daten bereits digital vorliegen, fließen sie teilweise in ERP-Systeme der Unternehmen ein, um vordefinierte Auswertungen und Standard-Reports zu erstellen. Wer Zusammenhänge vorgibt, wird allerdings auch nur Ergebnisse erhalten, die aus diesen Zusammenhängen ersichtlich sind.

In Prozessdaten stecken noch viel mehr Informationen, die oft nicht offensichtlich sind. Anwendungen der Künstlichen Intelligenz KI können in großen Datenmengen überraschende Muster erkennen, die helfen, das Geschäft wirklich zu verstehen und die richtigen Maßnahmen einzuleiten. Auch Veränderungen von Mustern wie bspw. eine Trendumkehr können durch KI-basierte Anwendungen erkannt werden.

Eingesetzt werden können solche Anwendungen beispielsweise

  • für das real-time-Monitoring der Präferenzen von Kunden und gezielte Angebote,
  • für die situativ angepasste, gezielte Kundenbetreuung,
  • für die präventive Instandhaltung, um Maschinenstillstandzeiten zu vermeiden,
  • für die Abstimmung der Produktionsplanung in Betrieben mit mehrstufiger Fertigung,
  • für Optimierung des OEE in komplexen, mehrstufigen Fertigungsanlagen,
  • für termingerechten Auftragsfertigstellung und Auslieferung
  • und für die Optimierung der Lagerhaltung.

Diese Möglichkeiten bedingen eine digitale Erfassung der Prozessdaten. Dafür müssen die relevanten Maschinenkomponenten mit geeigneten Sensoren ausgestattet werden, die diese Prozessdaten aufnehmen und an eine Auswertungseinheit (CPU) senden. Diese Auswertungseinheit kann Empfehlungen geben, aber auch in einem vorgegebenen Rahmen selbständig Entscheidungen treffen und unmittelbar umsetzen, indem sie Aktuatoren entsprechende Anweisungen erteilt. So helfen Prozessdaten, einen geregelten, möglicherweise sogar selbstlernenden Prozess zu schaffen.

IIoT

Einsatzgebiete für IIoT

Jedes Gerät und jede Maschine im Fertigungsprozess generiert laufend Daten, die häufig aber nur lokal genutzt werden. Durch die Verbindung der Geräte über das Internet (auch „Industrie 4.0“ genannt) können diese Daten im gesamten System genutzt werden.

So werden die Überwachung und die Ansteuerung von Geräten und Maschinen mit einer Intelligenz versehen. Durch die Verfügbarkeit vieler Sensoren, die relevante Daten erfassen, und Aktoren im System werden Regelungsvorgänge nicht nur besser, sondern können sogar in Echtzeit umgesetzt werden und greifen. Ineffizienzen und Fehler können frühzeitig erkannt, im Idealfall durch den Einsatz von Mustererkennung und Künstlicher Intelligenz sogar antizipiert und unmittelbar abgewendet werden.

Typische Einsatzgebiete der IIoT sind:

  • eine gleichmäßige Kapazitätsauslastung entlang des Geschäftsprozesses zur Vermeidung des desaströsen „Bullwhip-Effekts“
  • eine Lieferzeitenverkürzung
  • eine Leistungsmessung und -steigerung in den einzelnen Wertschöpfungsstufen
  • die Rationalisierung von Betriebsabläufen zur Steigerung der Gesamteffizienz in Fertigungsprozessen
  • eine wirksame Prozess- und Produktqualitätssicherung
  • ein prädiktives Bestellprocedere zur effizienten Bestandssicherung
  • eine präventive Instandhaltung von Komponenten und Facility
  • ein nachhaltiges und umweltfreundliches Energiemanagement
  • die Rückverfolgbarkeit von Prozessdaten über die gesamte Fertigungskette
  • ein zuverlässiges und kostengünstiges Asset-Tracking
  • die Verbesserung der Sicherheit am Arbeitsplatz durch smarte Industriebrillen, die mit Augmented-Reality Anleitungen zum Arbeiten geben

Komponenten für IIoT

Das industrielle Internet der Dinge (IIoT) setzt sich aus Komponenten, Geräten, Maschinen und Anlagen zusammen, die mit Sensoren ausgerüstet sind, die Betriebsdaten aufnehmen können. Diese Betriebsdaten können mit Edge-Komponenten über das Internet mit anderen Komponenten geteilt und mit Computern, die in das Netzwerk eingebunden sind, ausgetauscht werden. Außerdem sind Aktoren eingebunden, die von Computern angesteuert werden können. Die Aktoren können Aktionen ausführen. So können mittels IIoT komplette Fertigungsprozesse beobachtet, geregelt und optimiert werden.

Eine IIoT-Infrastruktur hat an der Basis also Sensoren und Aktoren. Sowohl die Sensoren als auch die Aktoren sind über Edge-Komponenten an die Infrastruktur im Netzwerk angebunden. Die Signale der Sensoren werden von den Edge-Komponenten teilweise direkt verarbeitet oder an IoT-Gateways bzw. Edge-Gateways geleitet; die Aktoren erhalten ihre Anweisungen entweder direkt von den Edge-Komponenten oder von den IoT- bzw. Edge-Gateways. Die Gateways sind ihrerseits via Internet an den Datenserver am Standort (on-premise Server) und an die übergreifende IoT-Plattform verbunden. Die verfügbaren hybriden Daten werden integriert und von Business Analytics-Anwendungen ausgewertet. Mit der Edge-Technologie wird erreicht, dass viele Standardprozesse von den Edge-Komponenten lokal ausgeführt werden können. Das beschleunigt und vergünstigt die Prozesse. Weniger Traffic muss über das Internet an die Datenserver und vice versa geleitet werden.

Die Daten werden zunehmend mit dem 5G-Standard (bis zu 20 Gbit/s) ausgetauscht. Damit wird ein hoher Datendurchsatz in nahezu Echtzeit möglich. Da die Reichweite bei 5G geringer ist als bei 3G/4G, empfiehlt sich die Installation intelligenter Hubs im Netzwerk (Edge-Technologie). Dann können mit 5G auch räumlich weit verteilte Komponenten in nahezu Echtzeit miteinander kommunizieren. Damit leistet IIoT in Kombination der Analyse von Big Data einen wesentlichen Beitrag zur Digitalisierung von (industriellen) Prozessen und Lieferketten.

Anbieter von IIoT-Plattformen

  • ABB Ability: IIoT-Anwendungen mit Fokus auf maschinelle Intelligenz
  • Cisco IoT Systems: Plattformen für Netzwerkkonnektivität unter Einsatz von Edge-Computing
  • Fanuc Field System: IIoT-Plattform zur Verknüpfung unterschiedlicher Systeme
  • GE Predix: Plattform für digitale Industrieanwendungen
  • Siemens MindSphere: Industrielle IoT-Lösung unter Einbindung von KI

In Unternehmen sollte beurteilt werden, wie hoch die Sicherheitsanforderungen für IIoT-Komponenten und die Datenübertragung sein sollten. Mit der Auswahl der Komponenten und dem Datenübertragungsstandard haben Unternehmen Einfluss auf das Sicherheitsniveau. Zu beachten ist, dass einzelne Signale von Komponenten kaum schützenswert sind, während die Gesamtheit der Betriebs- und Prozessdaten durchaus wettbewerbsrelevante Informationen enthält, schützenswert ist und deshalb unbedingt abgesichert werden sollten.

Cloud Computing

Große Datenmengen im Unternehmen zu speichern und alle möglichen Anwendungen im Unternehmen selbst bereitzuhalten und zu pflegen und upzudaten, ist aufwändig, teuer und birgt Risiken bezüglich der Verfügbarkeit und der Datensicherheit.

Eine Alternative ist die geräteunabhängige Nutzung von in Server-Farmen effizient und datensicher vorgehaltenen Daten-, Anwendungs- und Rechenkapazitäten. So können auch aufwändige Software-Anwendungen wie KI-Tools, IoT-Umgebungen, Analytics-Anwendungen und Blockchain-Software von Unternehmen genutzt werden, ohne sie selbst zu hosten.

Eine notwendige Voraussetzung für dieses Cloud Computing ist allerdings die Mandatenfähigkeit der Software über eine Multi-tenent-Architecture. Diese Voraussetzung war erst Ende der 1990er Jahre erfüllt. Auslastungsschwankungen begegnen die Anbieter mit einer service-orientierten Architektur.

Der Zugang zu den eigenen Daten und zu den Anwendungen erfolgt über eine sichere Internet-Verbindung via mobiler App oder Web-Browser. Für die Nutzer ist es belanglos, wo sich die Daten- und Anwendungs-Server befinden. Allerdings sollte aus datenschutzrechtlichen Gründen darauf geachtet werden, dass die Server zumindest auf dem eigenen Kontinent stehen. Diese Alternative für die Speicherung von Unternehmensdaten und Anwendungen nennt sich Cloud-Computing. Abgerechnet wird über eine monatliche Pauschale oder gemäß der tatsächlichen Nutzung – als Software as a Service (SaaS).

Cloud Computing reduziert für Unternehmen den Aufwand für das Vorhalten von Anwendungen und Datenspeicherkapazität und reduziert die technischen Anforderungen an Endgeräte sowie den Service der nutzerseitigen Endgeräte. Der sichere Zugang zu Anwendungen kann über die zugewiesenen Nutzerprofile erfolgen.

Nutzer können frei wählen, welche Ressourcen sie wann mit welchen Endgeräten nutzen möchten (on-demand service). Anbieter poolen die Inanspruchnahme ihrer vorgehaltenen Leistungen in der Regel in einem verteilten Netz von Ressourcen. Nutzer haben allerdings keine Kontrolle darüber, auf welchen anbieterseitigen Ressourcen seine Dienste ausgeführt werden. Für Nutzer erscheinen die Kapazitäten unbegrenzt, während Anbieter von Cloud-Computing-Lösungen die Kapazitäten nach Bedarf zwischen Nutzern switchen können (rapid elasticity).

Abgrenzung des Cloud Computing vom Grid Computing

Eine Alternative zum Cloud Computing ist das Grid Computing. Während beim Cloud Computing die Verantwortung für die Leistungen bei einem konkreten Anbieter liegt, besteht das Grid Computing in der gemeinsamen Nutzung gemeinsamer Ressourcen ohne eine zentrale Steuerung und Verantwortung.

Fog Computing

Beim Fog Computing werden Anwendungen möglichst in der Nähe der Nutzer gewählt, um die Effizienz im Netzwerk zu verbessern und die Latenz für die Nutzer zu verringern. Hier besteht eine konzeptionelle Ähnlichkeit mit dem Edge Computing, das für das IoT eingesetzt wird.

Ebenen des Cloud Computing

Software-as-a-Service (SaaS)

Werden Software-Anwendungen im Cloud Computing-Modus genutzt, nennt man das Software-as-a-Service (SaaS).

Bekannte Beispiele für SaaS-Cloud-Computing sind die Angebote Google Drive, Apple iCloud, Microsoft OneDrive und Amazon Web Services. Auch die üblichen Arbeitsplatzprogramme von Microsoft werden im Cloud Computing-Modus angeboten, etwa MS Office 365. Schließlich können auch Enterprise-Resource-Planning (ERP)-Systeme wie Microsoft Dynamics und spezielle Produktionsplanungs-Software sowie weitere spezielle betriebswirtschaftliche Anwendungen wie die Datev-Buchhaltungssysteme im Cloud Computing-Modus genutzt werden.

Function-as-a-Service (FaaS)

Es gibt für Unternehmen auch die Möglichkeit, bestimmte Software-Funktionen zu buchen. Anbieter stellen den Unternehmen dann genau die benötigten Funktionen zur Verfügung. Eine Abrechnung erfolgt auf der Basis der gebuchten Funktionen.

Diese Form eines Geschäftsmodells etabliert sich auch bei modernen Pkws: Alle Funktionen, bspw. mitlenkende Scheinwerfer, sind im Fahrzeug verbaut, aber nur die gebuchten Funktionen werden für den Fahrzeugeigentümer freigeschaltet. Das schafft für Anbieter Standardisierungsvorteile, für Nutzer Individualisierungsvorteile.

Platform-as-a-Service (PaaS)

Sogar ganze Software-Infrastruktur-Frameworks werden web-basiert angeboten, beispielsweise für Entwicklerumgebungen. Solche Plattformen heißen Platform-as-a-Service (PaaS). Beispiele hierfür sind Amazon Web Services, Google Cloud und Microsoft Azure.

Infrastructure-as-a-Service (IaaS)

Die oberste Ebene von Cloud Computing ist die Bereitstellung bzw. Nutzung von Infrastruktur, also die Leistungen eines Rechenzentrums, eines mit Firewall abgesicherten Zugangs zu einem Netzwerk und Server-CPU-Kapazität sowie Speicherkapazität (RAM, SSD). Solche Utility-Computing-Angebote empfehlen sich für Unternehmen, die kein eigenes Rechenzentrum betreiben möchten.

Arten von Cloud Computing

Private Cloud versus Public Cloud

Unternehmen haben die Wahl, ob sie eine IT-Infrastruktur als komplett eigene Anwendungen im Cloud Computing-Modus nutzen möchten (Private Cloud) oder ob sie eine fertig erstellte Standard-IT-Infrastruktur über ein öffentliches Netzwerk mit privaten Zugangsdaten nutzen möchten (Public Cloud). Im ersten Fall obliegen Aufbau und Pflege der IT-Infrastruktur dem Unternehmen, im letzten Fall kann das Unternehmen darauf vertrauen, dass der Anbieter eine funktionierende Infrastruktur bereithält.

Virtual Private Cloud

Eine besondere Form der Public Cloud ist die „Virtual Private Cloud“, bei der in einer Public Cloud ein privater Bereich für die Öffentlichkeit durch eine VLAN-Lösung abgeschottet wird.

Community Cloud

Eine Abwandlung der Public Cloud ist die die Form der Community Cloud. Eine Gruppe definierter Nutzer erhält Zugang zu Leistungen, die ein Anbieter zur Verfügung stellt. Die Nutzergruppe kann bspw. ein Branchen-Cluster sein.

Hybrid Cloud

Dazwischen gibt es auch Mischformen (Hybrid Cloud), mit denen wettbewerbskritische oder spezifische Kernprozesse von Unternehmen privat betrieben und andere generische Prozesse über flexibel skalierbare Public Clouds in Anspruch genommen werden.

Voraussichtlich werden sich hybride Cloud-Angebote für Unternehmensanwendungen durchsetzen.

Multi Cloud

In einer Multi Cloud-Lösung wird der Zugang zu verschiedenen Cloud-Angeboten verschiedener Anbieter so gebündelt, dass die Nutzer davon nichts mitbekommen. Alle Angebote können mit denselben Zugangsdaten genutzt werden.

Datenintegration

Unternehmen werden künftig sowohl strukturiert als auch unstrukturiert vorliegende Daten in unterschiedlichen Datenformaten und aus unterschiedlichen Datenquellen von unterschiedlichen Unternehmen verarbeiten, um Informationen zu gewinnen, die für das Geschäft relevant sind. Sie müssen in der Lage sein, solche „hybriden Daten“ in Echtzeit aus Clouds, eigenen und fremden Datenspeichern simultan auszulesen, zu integrieren, synchronisiert zu bearbeiten, auszuwerten und zu bewegen. Dafür brauchen Unternehmen geeignete architektonische Muster, Methoden und Tools. Datenintegrations-Tools, die diese Fähigkeiten haben, sind kommerziell verfügbar.

Anforderungen an die Datenintegration

Die funktionalen Anforderungen an kommerziell verfügbare Anwendungen zur Datenintegration sind folgende:

  • Möglichkeit der physischen und virtuellen, uni- oder bidirektionalen Bewegung von Daten in (Mikro-)Batches oder in Echtzeit
  • Möglichkeit, Abfragen (queries) mittels Adaptoren an verschiedene (virtuelle) Datenquellen zu richten
  • Möglichkeit, Daten in Bewegung zu bringen, entweder in diskreten Einheiten (events) oder als laufenden Datenstrom (data streaming)
  • Möglichkeit, Datenbewegungen über Inbound- und Outbound-APIs als „Data-as-a-Service“ zu handhaben.
  • Möglichkeit komplexer Datenauswertung mittels Text- oder Data-Mining oder Modellierung
  • Möglichkeit der „Selbstheilung“ von Datensätzen durch den Einsatz von Metadaten und Lernfähigkeit
  • Möglichkeit der Aufbereitung von Datensätzen zur Auswertung durch Anwender aus Fachbereichen ohne Programmierkenntnisse
  • Möglichkeit der sicheren Datenübertragung innerhalb einer hybriden Dateninfrastruktur durch „Containerization“

Für mittelständische Unternehmen ist es empfehlenswert, den Service der Datenintegration bei Spezialisten zu buchen, statt Datenintegrationsanwendungen selbst zu konfigurieren, zu customizen und für eigene Use Cases einzusetzen.

Anbieter von Datenintegrationsdienstleistungen

Erfahrene Anbieter sind beispielsweise

  • Amazon Web Services (mit AWS Glue): Logistikunternehmen, E-Commerce-Unternehmen und andere
  • Denodo: Financial Services, produzierende Unternehmen und Technologieunternehmen
  • Hitachi Vantara: Finanzdienstleister, Software- und Technologieunternehmen, Consumer Goods Hersteller und Einzelhandel: Hitachi Vantara bietet mit der Lumada Industrial DataOps auch eine Plattform für Industrial IoT.
  • IBM: Finanz- und Versicherungsdienstleister, Unternehmen im Gesundheitswesen,
  • Informatica: Finanzdienstleister, Telekommunikationsunternehmen, Öffentlicher Sektor
  • Microsoft: Kleine, mittelgroße und große Unternehmen in allen Branchen
  • Oracle: Finanzdienstleister, Telekommunikationsunternehmen, E-Commerce-Unternehmen, Pharmazieunternehmen
  • Precisely: Finanz- und Versicherungsdienstleister und Unternehmen im Gesundheitswesen
  • Qlik: Finanzdienstleister, Unternehmen im Gesundheitswesen, Einzelhandel und produzierende Unternehmen
  • SAP: Automobilindustrie, Hersteller von Consumer Goods, Öffentlicher Sektor
  • Software AG: Finanz- und Versicherungsdienstleister, Technologieunternehmen, Telekommunikationsunternehmen.
  • Tibco Software: Finanzdienstleister, Telekommunikationsunternehmen, produzierende Unternehmen

Diese Anbieter nutzen Frameworks wie SQL Server Integration Services (SSIS) für unternehmensinterne Datenbanken und Azure Data Factory (ADF) für hybride Datenquellen. Oracle beschäftigt sich schon sehr lange mit Datenbanklösungen und setzt die eigene Oracle Golden Gate-Plattform, die Oracle Data Integration Suite (ODI), Oracle Big Data SQL (BDSQL) sowie Integrations-Services innerhalb der Oracle Integration Cloud und der Oracle Cloud Infrastructure (OCI) ein

Die Einsatzbereiche zeigen, dass der meiste Aufwand zur Datenintegration bei Finanz- und Versicherungsdienstleistern, bei Telekommunikationsunternehmen, im Gesundheitswesen, im Einzelhandel und im Öffentlichen Sektor betrieben wird. Einige Anbieter haben auch Lösungen für die Logistik und für produzierende Unternehmen.

  • Für jede Branche und jede Unternehmensgrößenordnung kann ein geeigneter Anbieter gefunden werden.
  • Wichtig ist auch, die Datenintegration nicht nur auf das eigene Unternehmen zu beschränken, sondern Möglichkeiten anzulegen, mit denen die Datenintegration auf die gesamte Wertschöpfungskette ausgeweitet werden kann.
  • Achten Sie bei der Auswahl darauf, dass der Anbieter Ihr Geschäft versteht und Ihre Anforderungen abdecken kann und möchte.
  • Sehen Sie sich das Geschäftsmodell des Anbieters sorgfältig daraufhin an, ob es zu Ihren Bedürfnissen passt.

Für die meisten Unternehmen ist es nicht empfehlenswert, selbst Open-Source-Frameworks zu implementieren oder programmierbare Interfaces zu nutzen.

Konzentrieren Sie sich als Anwender lieber auf die Auswertungen der Daten.

Big Data und Business Analytics in industriellen Prozessen

Die zur Verfügung stehende Datenmengen wachsen exponentiell. Das erscheint vielen Unternehmen wie ein Fluch, weil die Datenmengen bewältigt werden müssen. Aber viele verfügbare Daten können für Unternehmen auch ein Segen sein, denn sie enthalten relevante Informationen, die vorteilhaft für das Geschäft eingesetzt werden können. Es bleibt aber leider nicht bei einer Option, denn viele Unternehmen verstehen sich schon hervorragend darauf Big Data auszuwerten und zu nutzen. Für die anderen Unternehmen löst dies den Zwang aus, sich nun ebenfalls intensiv mit Big Data zu befassen.

Entstehung und Bedeutung von Big Data für industrielle Prozesse

Seit der Verfügbarkeit von Personal Computers und Client-Server-Computing fallen Prozessdaten aus unterschiedlichen Datenquellen in großen Mengen, in verschiedenen Formaten und mit hoher Geschwindigkeit an. Diese drei Kriterien Volume, Variety und Velocity charakterisieren Big Data. Entsprechend komplex können Datensätze werden. In solchen Datensätzen stecken viele relevante Informationen, die zu besseren Entscheidungen beitragen können. Aber diese Informationen erschließen sich leider nicht offensichtlich. Auch relationale Datenbanken, verbunden mit Structured Query Language (SQL), sind nicht in der Lage, solche Datenmengen in Echtzeit sinnvoll auszuwerten. Das Internet mit seinen Suchmaschinen und internet-basierte Transaktionen (digital Economy) haben zu einer weiteren Erhöhung der anfallenden Datenmengen beigetragen.

In Unternehmen entstanden proprietäre Data Warehouses, um diese großen Datenmengen zu verwalten, auszuwerten und zu nutzen. Mit dem Aufkommen der Social Media potenzierten sich dann aber die Mengen strukturiert und unstrukturiert vorliegender Daten, die von den Nutzern generiert wurden. Die Speicherung der riesigen Datenmengen zu angemessenen Kosten und eine gleichzeitige Verarbeitung dieser auf vielen Computer-Clustern verteilten Daten wurden zu besonderen Herausforderungen für Unternehmen. Erst als sich die Datenverarbeitungsgeschwindigkeit von Computern entwickelte, beliebig skalierbarer Speicherplatz mit virtuellen Clouds bezahlbar wurde und zuverlässiges Daten-Streaming möglich wurden, konnten sich Anwendungen Künstlicher Intelligenz (KI) durchsetzen und Lernende Maschinen (ML) entstehen. Während bis dahin Daten vor ihrer Auswertung extrahiert, bereinigt, transformiert und aggregiert (ETL) werden mussten, können nun Rohdaten gespeichert und direkt der Auswertung zugeführt werden. Erst hierdurch werden Datenauswertungen, datenbasierte Entscheidungen und das Einleiten datengestützter Maßnahmen in Echtzeit möglich.

Infrastrukturaufgaben und Datenmanagement

Die Aufgaben lassen sich in Infrastrukturaufgaben und das Datenmanagement gliedern.

Infrastrukturaufgaben

Die Infrastrukturaufgaben bestehen in der Speicherung der Daten in ihren Originalformaten, die Integration aller öffentlichen und privaten Datenquellen, die Bereitstellung von Tools, um auf die Daten zuzugreifen (search, explore, govern) und das Daten-Steaming zu ermöglichen und die Bereitstellung von Auswertungsanwendungen (query tools) und Anwendungen für die Datenanalyse (Business Analytics), mit denen Trends identifiziert und treffende Entscheidungen herausgearbeitet werden können.

Für Unternehmen besteht eine große Chance darin, die Infrastrukturaufgabe des Data Warehousing von Spezialisten in der Cloud ausführen zu lassen und sich auf das unternehmensbezogene Datenmanagement zu konzentrieren.

Datenmanagement

Für jedes Unternehmen ist es wichtig, strukturierte Daten aus dem Data Warehouse ebenso auszuwerten wie strukturierte Transaktionsdaten. Um Veränderungen in Märkten und Präferenzen von Kunden zu verstehen und gezielt und zügig passende Produkte zu entwickeln, kommt zunehmend der Wunsch hinzu, auch unstrukturierte Daten aus Social Media und anderen Quellen auszuwerten, die in sogenannten Data Lakes vorliegen. Die Information, die sich in Big Data verbirgt, kann durch Anwendungen der Business Intelligence (BI) erschlossen werden. Der Begriff „Business Intelligence“ wurde 1958 von IBM geprägt und bezieht sich auf die Fähigkeit, wechselseitige Beziehungen zwischen Fakten zu erkennen und diese Information dafür zu nutzen, geeignete Maßnahmen zu ergreifen, um gewünschte Ziele zu erreichen. Es geht dabei im Wesentlichen um die Kombination von Daten und das Erkennen von Mustern in Datensätzen. Um valide Erkenntnisse zu gewinnen, sollten die Daten aus allen drei Quellen, dem Data Warehouse, den Transaktionsdaten-Pool und den Data Lakes, integriert ausgewertet werden. Für diese Datenintegration stehen heute Data Platforms zur Verfügung.

Mit Anwendungen der Künstlichen Intelligenz (KI) können inzwischen viel weitgehendere Auswertungen vorgenommen werden: KI kann Bilder beschreiben, Daten grafisch auswerten, gesprochene Texte transkribieren, geschriebene Texte vorlesen und Bedeutungen von Aussagen herauslesen, die in Social Media gesendet wurden. Die Einbettung solcher Anwendungen Künstlicher Intelligenz in Data Platforms ermöglicht es Unternehmen, gespeicherte Daten im Business-Kontext zu verstehen, implizites Wissen für das Unternehmen zu erschließen und ganz neue Anwendungen zu schaffen. Das können Anwendungen zur Prozessoptimierung, zur Lagerbestandsoptimierung, zur Optimierung der Kapazitätsauslastung, für das Qualitäts-Monitoring, zur präventiven Instandhaltung von Anlagen oder zur Identifikation besonders treuer oder abwanderungsgefährdeter Kunden sein.

Das Datenmanagement ist eine wichtige strategische Aufgabe, die Unternehmen nicht aus der Hand geben sollten, denn hierin liegt ihre Chance, sich vorteilhaft im Wettbewerbsumfeld zu positionieren. Die Herausforderung besteht darin, qualifizierte Mitarbeiter zu finden und zu binden, die mit der Methodik des Datenmanagements vertraut sind und ihre Skills laufend aktualisieren. Es bietet sich aber auch an, erfahrene Dienstleister in die Aufgabe des Datenmanagements einzubinden. Zumindest in der Konzeptionsphase macht das Sinn, um eine geeignete Methodik zu implementieren. Darüber hinaus kann es hilfreich sein, einen externen Datenmanagementspezialisten als Sparring-Partner zu nutzen.

Robotics

Das Gebiet der Robotics umschließt die Konzeption, Entwicklung, den Bau, die Programmierung, den Betrieb und die Instandhaltung von Robotern. Roboter verändern die Fähigkeiten, über die Menschen verfügen sollten. Während einfache Arbeiten mit steigendem Lohnniveau zunehmend von Robotern ausgeführt werden, müssen Mitarbeiter Roboter bauen, programmieren, bedienen und warten können. Das Aufgabenspektrum und mit ihm das Anforderungsprofil an Mitarbeiter verschiebt sich in Richtung Informatik, Elektrotechnik und Mechatronik.

Maschinen können Mitarbeitern helfen, definierte Bearbeitungsgänge auszuführen, während Automaten sogar auf die Ausführung von Arbeitsgängen programmiert werden können, die sie dann selbständig ausführen. Roboter gehen per definitionem noch einen Schritt weiter: Sie sind beweglich und arbeiten daran, Ziele zu erfüllen; dafür können sie sich in ihrer Umgebung orientieren und verschiedene Arbeitsgänge sogar selbständig entscheiden und ausführen.

Längst werden in Produktions- und Logistikumgebungen nicht mehr alle Arbeiten von Menschen durchgeführt. Für sich wiederholende Routineaufgaben, für Arbeiten mit hohen Präzisions- und/oder Geschwindigkeitsanforderungen und für gefährliche Arbeiten werden Maschinen, Automaten bzw. sogar Roboter eingesetzt, sofern sie sich rechnen. Es gibt durchaus Aufgaben, die Menschen allein deshalb vorbehalten bleiben, weil Roboter dafür zu teuer sind. Der Einsatz von Robotics bedingt also in jedem Fall einen Use Case und eine Investitionsrechnung.

Kriterien für eine Automatisierung umfassen die Mengen, die abzuarbeiten sind, ebenso wie den Standardisierungsgrad der Arbeiten. Bei einer Serien- bis Großserienfertigung wird sich eine Automatisierung durch Roboter eher lohnen als bei Einzelfertigung oder kleinen Bearbeitungslosgrößen. Oft besteht eine Anforderung, große Mengen in großer Variantenvielfalt zu fertigen. Daraus resultieren dann oft wieder kleinste Fertigungslosgrößen. Aber auch solche Auftragsstrukturen können durchaus von einer gezielten Automatisierung profitieren, wenn die Komponenten standardisiert und die Produkte modular aufgebaut werden. Das Konzept der Automatisierung verlangt also, viel früher in der Produktentstehung die Weichen in geeigneter Weise zu stellen. Je später die Varianten im Fertigungsprozess greifen können, desto mehr kann modularisiert und automatisiert gefertigt werden. In einen solchen Veränderungsprozess ist natürlich kein reines Fertigungsthema; vielmehr sind vor allem das Produktmanagement, die Produktentwicklung, die Beschaffung, die Arbeitsvorbereitung und die Fertigungsplanung und -steuerung eingebunden. Von einer neu geplanten Produktgestaltung kann auch der Aftersales-Service profitieren, indem weniger Vielfalt an Ersatzteilen vorgehalten werden muss und Verschleißteile ggf. einfacher zu ersetzen sind.

Anlagenautomatisierung

Bei Projektideen zur Automatisierung von Prozessen stellt sich häufig die Frage, was zuerst erfolgen sollte: die Digitalisierung oder die Automatisierung der Prozesse? Das ist keine triviale Frage. Beide Aktivitäten bedingen sich nämlich gegenseitig. Deshalb sollten beide Aufgaben parallel angegangen werden.

Kompromisslose Automatisierung ist allerdings ebenso wenig ein Allheilmittel wie kompromisslose Digitalisierung. Bei der Automatisierung ganzer Fertigungsanlagen bzw. Fertigungsstraßen als auch bei der Automatisierung in der Prozessindustrie gilt es, einen Trade-off zwischen höchster Effizienz und einer notwendigen Flexibilität zu optimieren. Zu einer Fertigungsstraße voll vernetzte Maschinen können eine hohe Effizienz erreichen – solange wirklich alles funktioniert. Kleine Störungen können die Linieneffizienz vollkommen zunichtemachen. Deshalb mag es zweckmäßig sein, zwischen den Bearbeitungsmaschinen Pufferläger vorzuhalten.

Je besser die Prozessdaten einer solchen Fertigungsstraße bekannt sind, desto eher kann Störungen bereits antizipativ entgegengewirkt werden, um Ausfallzeiten zu begrenzen.

  • In jedem Fall lohnt es sich, die Art des Geschäftsprozesses treffend zu erfassen, denn die Auswahl der Maschinen und Anlagen hängt stark vom natürlichen Geschäftsprozess ab. Ein Versuch, eingeführte Werkstattprozesse umfassend zu automatisieren, wird mit hoher Wahrscheinlichkeit scheitern.
  • Bei wachsenden Werkstattbetrieben kann es allerdings sinnvoll sein, einen Shift zu industriellen Prozessen einzuleiten. Wenn dies sinnvoll umsetzbar erscheint, lohnen sich auch Überlegungen zu einer Automatisierung.
  • Die Leistungsfähigkeit der Komponenten sollte aufeinander abgestimmt werden. Zu beachten ist, dass das schwächste Glied der gekoppelten Anlage die Effizienz der gesamten Linie bestimmt.
  • Als „Naturgesetz“ sinkt die Linieneffizienz mit der Anzahl der verketteten Komponenten. Insofern ist die Komplexität der Anlage schon in der Planungsphase gründlich zu hinterfragen.
  • Die Leistungsfähigkeit einer gekoppelten Anlage hängt maßgeblich von der Datenkommunikation zwischen den Komponenten ab. Deshalb sind die Analyse der prozessrelevanten Daten, die Umsetzung der Datenaufnahme über Sensoren sowie die Datenübertragung und -auswertung im Netzwerk wichtig.

Entsprechende Überlegungen und Analysen können wertvolle und belastbare Erkenntnisse liefern, die für eine Entscheidung über eine teilweise oder schrittweise Automatisierung eingesetzt werden können.

Für die Automatisierung von Anlagen müssen auch die Maschinensteuerungen eingebunden werden. In manchen Fällen bietet sich die Migration von Leitsystemen bestehender Anlagen in die neue Automatisierungs-Technik an. Ausgeprägte Kenntnisse der relevanten Maschinensteuerungen sind deshalb unabdingbar. Zu den üblichen Maschinensteuerungen zählen:

  • ABB 88xA, Freelance 2000
  • Emerson Delta V
  • HIMA
  • Honeywell PKS, TDC 3000
  • Mitsubishi
  • Siemens S5, S7, PCS7, PCSneo, TIA
  • Yokogawa Centrum VP

Empfohlen wird, in Automatisierungsprojekte Fachleute für Maschinensteuerungen einzubinden.

Computer Vision

„Computer Vision“ ist ein weiteres interessantes Feld, um Fertigungsprozesse sicherer und effizienter und kostengünstiger zu machen. Mit dem Schlagwort „Computer Vision“ wird die Befähigung von Computern bezeichnet, Bilddaten zu verstehen und sinnvolle Entscheidungen zu treffen.

Ähnlich wie Menschen können Computer darauf trainiert werden, verschiedenartige Objekte sicher voneinander zu unterscheiden, Bewegungen wahrzunehmen, Distanzen einzuschätzen und Abweichungen von einem Soll-Zustand zu identifizieren. Kameras, Datenübertragung und Auswertungsalgorithmen übernehmen die Aufgaben der Netzhaut, des Sehnervs und des visuellen Cortex. Computer müssen genauso auf die differenzierte Wahrnehmung trainiert werden wie Menschen. Besonders wichtig ist die Definition von Kriterien, mit denen beispielsweise Gutware von Ausschuss unterschieden werden. Auch Menschen müssen hierauf konditioniert werden. Maschinen brauchen harte Kriterien, die sich in Form von Algorithmen erfassen lassen. Mit der „Erfahrung“ lernen auch Maschinen, immer besser zu unterscheiden (deep learning). Dieses selbständige Lernen kann durch den Einsatz eines Convolutional Neural Networks (CCN) sogar um eine Prognosefähigkeit erweitert werden. Beides funktioniert nicht nur für statische Bilder, sondern auch für Videodaten.

So können Computer Mitarbeiter in vielen Anwendungsfällen nicht nur ersetzen; sie können sogar deutlich schneller mit gleichbleibend hoher Konzentration Prüf- und Trennvorgänge abarbeiten als Menschen das können.

Deshalb eignen sich Anwendungen der Computer Vision in Fertigungsprozessen zur laufenden Qualitätssicherung. Gemeinsam mit dem Monitoring von Maschinenparametern können mit Computer Ausfälle und Ausschuss vermieden werden.

Natürlich gibt es Anwendungen von Computer Vision nicht zum Nulltarif. Um sicherzugehen, für welche Prozesse sich eine Investition in diese Technologie lohnt, werden sowohl eine Prozessanalyse als auch eine Investitionsrechnung empfohlen.

Digital Twin

Alles, was in der realen Welt existiert, kann in digitaler Form modelliert werden. So können auch Fertigungsprozesse digital nachgeahmt werden. Realitätsnah funktionierende Modelle von Prozessen können dazu eingesetzt werden, Prozessveränderungen zu simulieren und die Auswirkungen dieser Veränderungen auf das Verhalten des simulierten Systems zu beurteilen.

In der Regel ist die Simulation an solchen digitalen Zwillingen (Digital Twins) kostengünstiger als Versuche an realen Anlagen. Fertigungsläufe müssen nicht für Versuche unterbrochen werden, und es werden kein physisches Vormaterial und keine Prozessenergie verbraucht.

Digitale Zwillinge zu erzeugen kann also durchaus sinnvoll sein, aber es ist auch mit gewissem Aufwand verbunden.

Wirklich interessant werden Digitale Zwillinge allerdings erst, wenn zwischen den realen Anlagen und ihren digitalen Zwillingen Prozessdaten ausgetauscht werden. Dann können digitale Zwillinge nämlich als Führungseinheit eingesetzt werden, die der realen Anlage Prozessanpassungen vorgibt, um nahe an einem Idealzustand betrieben zu werden.

Eine Voraussetzung für solche kommunizierenden digitalen Zwillinge ist die Umsetzung des IIoT-Konzeptes. Die prozessrelevanten Daten müssen von der realen Anlage für einen Abgleich dem digitalen Zwilling zur Verfügung gestellt werden. Der digitale Zwilling muss über die Möglichkeit verfügen, die Aktoren der realen Anlage zu steuern.

Auch für andere betriebliche Funktionen können digitale Zwillinge hilfreich sein, beispielsweise für die agile Fertigungssteuerung, für die präventive Instandhaltung. Außerhalb der Fertigung können digitale Zwillinge auch für die intelligente und effiziente Steuerung von Lagerhäusern und anderen Warenumschlagplätzen (bspw. die Hafenlogistik) eingesetzt werden.

Dieses Konzept des digitalen Zwillings beschränkt sich aber nicht auf Fertigungsprozesse; es kann auch auf Produkte angewandt werden, die über ihren gesamten Lebenszyklus hinweg als geometrische 3D-Modelle, Funktionsmodelle oder Verhaltensmodelle simuliert werden können. Auf diese Weise lassen sich wertvolle Erkenntnisse gewinnen, ohne physische Prototypen testen zu müssen. Insbesondere die Betrachtung des gesamten Lebenszyklus in der Simulation (von der Rohstoffgewinnung über Herstellung und Nutzung des Produkts und seiner möglichen Zweitnutzung bis zur Entsorgung und der Trennung und Wiederaufbereitung der Rohstoffe (Recycling) erfährt im Zuge des Zwangs zu nachhaltigem Wirtschaften besondere Bedeutung.

Die Königsdisziplin wird erreicht, wenn unterschiedliche Modelle in einer Simulation miteinander verknüpft werden. Dann kann die komplexe Wirklichkeit am besten nachempfunden werden.

Digitale Zwillinge sind mächtige Instrumente, um reale Prozesse und Produkte weiterzuentwickeln. Eine Vor-Ort-Analyse kann zeigen, ob es sich lohnt, erste Schritte mit digitalen Zwillingen zu gehen.

Fazit

Mit dem Einsatz digitaler Technologien können in industriellen Umfeldern, insbesondere in der Fertigung und in der Logistik, relevante Effektivitäts- und Effizienzpotenziale erschlossen werden.

Eine notwendige Voraussetzung dafür ist eine strategisch fundierte Digitalisierung der wesentlichen Geschäftsprozesse und eine digitale Aufnahme und Vernetzung der einflussreichen Prozessdaten (IIoT, Cloud Computing). Für beides empfiehlt sich eine sorgfältige Vor-Ort-Analyse, in die bereits einfließen sollte, wofür die Daten verwendet werden sollen.

Im nächsten Schritt geht es um den Umgang mit den vielen laufend anfallenden teils strukturierten, teils unstrukturierten Daten (Big Data), um aus den Daten wertvolle Erkenntnisse zu gewinnen (Business Analytics). Wichtige Schritte für die Datenauswertung sind die Art und Weise, wie Daten vernetzt werden und die Datenintegration.

Jetzt kann über die maschinelle Unterstützung in der Ausführung einzelner industrieller Arbeitsgänge hinaus eine Automatisierung ganzer Fertigungsprozesse eingeleitet werden. Durch die datentechnisch integrierte Prozessführung ist nun eine agile Regelung möglich, die zu höherem Durchsatz, höherer Zuverlässigkeit und höherer Kosteneffizienz führt.

Außerdem können in industriellen Prozessen KI-gestützte selbstlernende Anwendungen der Computer Vision zur Qualitätsüberwachung eingesetzt werden. Hierdurch können das Qualitätsniveau verbessert und die Kosten der Qualitätssicherung reduziert werden.

Schließlich können mit dem Konzept der digitalen Zwillinge (digital twins) Prozesse und Produkte realitätsnah modelliert und Anpassungen kostengünstig simuliert werden. Indem digitale Zwillinge mit realen Prozessen Datenaustauschen, können sie zur Steuerung realer Prozesse eingesetzt werden. Mit jeder Nutzung lernt die Anwendung und verbessert den Steuerungsprozess weiter.

Für klassische Industrie- und Logistikunternehmen lohnt es sich finanziell, sich mit den digitalen Technologien zu befassen und verfügbare Prozessdaten besser zu nutzen.

Dialog

Wo liegen Ihre Herausforderungen?

...
Dialog neu starten
Call