Search Results
23 Ergebnisse gefunden für „“
- Use Case Überwachung des Stromverbrauchs
Das Thema Energiemanagement ist längst in vielen Firmen ein fester Bestandteil. Unsere Kunden praktizieren dies mittlerweile umfangreich in ihren Werken mithilfe der Pocket Factory. Sie haben firmeneigenen Konzepte entwickelt und erweitern ständig ihre Perspektive, um neue Möglichkeiten der Energieeinsparung zu finden. Oft erfordern auch konkrete Anlässe, oder plötzlich auftretende hohe Energieverluste eine Überwachung und Optimierung der Verbräuche mittels Datenanalyse. Es kann sich lohnen einen Blick auf den Stromverbrauch zu werfen, denn oft reichen bereits kleine Veränderungen, um den Ressourcenbedarf und somit die Kosten zu reduzieren. Das Einsparungspotenzial beim Strom mag vielleicht im Vergleich zu anderen Medien nicht so hoch sein, schafft aber ein Bewusstsein, wo und in welchem Umfang weiter Energie eingespart werden kann. Als IIoT - Plattformprovider können wir den Kunden bei der Überwachung der Verbräuche unterstützen. Die digitalisierte Produktion macht es möglich an jeder Maschine Daten zu generieren und via Dashboard die für die Energiereduzierung notwendigen Kennzahlen zu erzeugen und diese entsprechend zu visualisieren. Ausgangssituation Für den Stromverbrauch wurden in der Produktion bereits Daten erhoben. Durch detaillierte Analyse erkannte man bei folgenden Szenarien mögliche Einsparungspotenziale: Was wurde gemacht Es wurden mehrere Ansätze verfolgt, um den Stromverbrauch zu senken. Zum einen wurde der Energieverbrauch bei Nichtproduktion, wie zum Beispiel am Wochenende, oder nach Schichtende überwacht. Oft wurden die Maschinen nach Schichtende in einen Wartemodus gesetzt. Dies hatte zur Folge, dass die Maschinen während der produktionsfreien Zeit einen konstant hohen Stromverbrauch verursachten. Also achteten die Schichtleiter konsequent darauf, vor allem am Wochenende, die Maschinen abzuschalten, oder in einen Energiesparmodus zu versetzen. Weiterhin hat man sich bei heizintensiven Maschinen genau angesehen, wie viel Strom verbraucht wurde. Eine angemessene Absenkung der Heiztemperatur verringerte den Strombedarf merklich. Zum anderen wurde der Energieverbrauch pro produziertem Produkt untersucht. Nach Auswertung und Darstellung in Dashboards zeigte sich bei bestimmten Produkten ein höherer Stromverbrauch bei der Produktion als bei anderen. Hier wurden die Ursachen dafür untersucht. Zum Beispiel wurden die Umrüstzeiten und die Reinigungszeiten überwacht, um Einsparungspotenziale zu finden. Ergebnisse Insgesamt konnte der Stromverbrauch durch bereits kleine Eingriffe gesenkt werden. Die Einsparungen bewegte sich in einem mittleren vierstelligen Eurobereich. Zudem brachte das Überwachen des Stromverbrauches neue Erkenntnisse über das Anlagenverhalten. Der Stromverbrauch pro hergestelltem Produkt wurde für ein werksübergreifendes Monitoring aufgebaut, um Effizienzverluste zwischen den einzelnen Werken zu erkennen. Das Alter der Linien spielt auch eine Rolle. Aufgrund der gewonnenen Ergebnisse ist es sinnvoll sich Gedanken über die Modernisierung einzelner Maschinen zu machen, denn zu hohe Verbräuche können ein Indikator hierfür sein. Fazit Energieeinsparungen anzustreben ist immer sinnvoll. Selbst kleine Maßnahmen helfen, Ressourcen zu schonen. Datenerhebungen, wie hier beim Stromverbrauch, unterstützen den Werksleiter, Produktionsprozesse zu verbessern. Die Auswirkungen der umgesetzten Änderungen waren bereits nach wenigen Tagen ablesbar. Der Stromverbrauch hatte sich durch die ergriffenen Maßnahmen messbar verringert.
- Unverzichtbares Werkzeug für Maschinendaten-Verfügbarkeit und -qualität
Pocket Factory Site-Acceptance-Test von 3 Maschinen einer Dosenlinie 01. Februar 2024 - Mehr Fallstudien unter quantis.ai Highlights der Fallstudie Unstimmigkeiten bei der Qualität der Maschinendaten entdeckt: Prüfung ergibt 89,3 % im Vergleich zur Kundenspezifikation von 96 % Prüfung durch Dritte bestätigt: KPI-Verfügbarkeit von 100 % im Vergleich zur Kundenspezifikation von 100 % Erfahren Sie, wie Sie noch heute von einer neutralen Validierung durch Dritte profitieren können die innerhalb von 5 Tagen durchgeführt wird und Ihnen helfen kann, Ihre Betriebskosten zu senken. Der Stand der Innovation in der Fertigung Inmitten des unaufhaltsamen Vormarschs der digitalen Transformation in der diskreten Fertigung richtet die Getränkeabfüllindustrie ihren Fokus darauf, ihre Abläufe durch Digitalisierung zu optimieren. Die Branche strebt danach, ihre Prozesse gemäß individueller Bedürfnisse und Vorgaben zu verfeinern und umzusetzen, um eine effizientere und maßgeschneiderte Produktion zu gewährleisten. Neue Maschinen, neue Systeme Beim Kauf von neuen Maschinen und Anlagen wird nicht mehr nur rein auf die HardwareÜbereinstimmung der Kundenvorgaben geachtet, sondern auch auf die Verfügbarkeit von Maschinendaten, die wichtig sind, um später Aussagen über die Anlageneffizienz treffen zu können. Zwar werden von OEM Seite Maschinendaten zur Verfügung gestellt, aber nicht immer in der Wertigkeit wie der Kunde es sich wünscht. Garantierter Standard Als Datengrundlage verwenden die meisten Getränkehersteller den Weihenstephaner Standard, der festlegt wie die Daten an übergeordnete IT-Ökosysteme übertragen werden. Im Industrie 4.0 Bereich hat sich unter anderem die Kommunikation via OPC UA Servern bewährt. Diese Architektur ist plattformunabhängig und gewährt in hohem Maße Sicherheit. Erfolgreiche Soforthilfe Einige Getränkehersteller haben den Weihenstephaner Standard weiterentwickelt, um ihre eigenen Standards zu schaffen. Diese Normen legen fest, welche Daten in den einzelnen Maschinen vorhanden und auslesbar sein müssen. Aber nicht nur das bloße Vorhandensein der Daten, sondern auch deren Qualität und die kundenspezifischen Anforderungen an die Daten, wie Maßeinheiten, oder Nachkommastellen spielen eine erhebliche Rolle. In Abstimmung zwischen dem OEM und dem Kunden werden die Spezifikationen sowie die Rahmenbedingen für die Testung in einem Regelwerk dargestellt. Um Firmen in Bezug auf die Einhaltung der vorgegebenen Standards ihrer Maschinendaten zu unterstützen, bietet die Firma Quantis den Site-Acceptance-Test für seine Kunden an. Der Fokus liegt hier auf der Prüfung der vom OEM zur Verfügung gestellten Maschinen-Daten. Getestet wird beim Kunden in der Anlage während des laufen Betriebes. Bewährt hat sich ein Testintervall von 5 aufeinanderfolgen Tagen während der Schicht im laufenden Betrieb. Problem Nach der Inbetriebnahme der neuen Dosenlinie stellte sich heraus, dass speziell das Zusammenspiel der Maschinen in der Anlage eine erneute Überprüfung der Daten erfordert. Ein Kunde hat daher die Firma Quantis gebeten, vor Ort folgende Maschinen einer Dosenlinie zu testen: 1 Pasteurisierer 1 Packer 1 Palettierer Dabei soll Folgendes geprüft werden: Maschinendaten Vorgabe: 100 % iges Vorhandensein aller geforderten Datenpunkte Entsprechen die gelieferten Daten den vom Kunden gewünschten Parametern? Vorgabe: Validität mindestens 96% Wo ergeben sich Abweichungen? Vorgabe: Qualität mindestens 96% Lösung Die Firma Quantis nimmt bei dem Site-Acceptance-Test eine dritte, unabhängige Prüfungsinstanz ein. Der Getränkehersteller hat den Weihenstephaner Standard weiterentwickelt und diesen als Grundlage für den Test verwendet. Anhand dieser individualisierten Liste wird die Datenprüfung durchgeführt. Das Auslesen der Daten während der 5 Tage in den einzelnen Schichten hat in diesem Fall der OEM vor Ort übernommen. Es wurde ein Edge Device eingebaut und der Datentransfer vom Edge zur Cloud überprüft. Danach hat der OEM die Daten ausgelesen, und der Firma Quantis zur Verfügung gestellt. Alle vom Kunden geforderten Datenpunkte durchliefen in der Applikation Pure Data den Test auf oben genannte Vorgaben. Die Dokumentation der Testung erfolgte in einer detaillierten Liste für alle geforderten Datenpunkte, bei welchen das Regelwerk eingehalten, oder verletzt wurde. Diese wurde an den Kunden übergeben. Ergebnisse Aus dieser Prüfung ergibt sich eine Reflexion dessen, was real an Daten geliefert wurde. So kann eine standardisierte Dokumentation der Werte vorgenommen werden und als Grundlage für weitere Testungen dienen. Folgende technische Ergebnisse wurden für die einzelnen Maschinen erzielt: Pasteurisierer: KPI Verfügbarkeit = 100 % KPI Qualität = 87,08 % Packer: KPI Verfügbarkeit = 100 % KPI Qualität = 92,74 % Palettierer: KPI Verfügbarkeit = 100 % KPI Qualität = 89,79 % Im Packer und der Pasteurizer existieren zusätzliche KPIs, die nicht in der ursprünglichen Anforderungsliste des Kunden definiert wurden. In der Verfügbarkeit der Daten haben alle drei Maschinen den Test bestanden. Die geforderte Verfügbarkeit war zu 100 % gegeben. Bei der Datenqualität und den Datenparametern lagen die drei Maschinen unter dem erwarteten Ergebnis. Hier muss der OEM mit dem Kunden zusammen entscheiden, welche Daten nachgebessert werden. Der Report des Site-Acceptance-Test dient hierzu als Grundlage. Detaillierter Bericht für maximale Linienausbringung Als fundamentales Werkzeug zur Feststellung von Verfügbarkeiten und Qualität der Maschinendaten gewinnt der Anlagenbetreiber die detaillierte Einsicht in Maschinenprozesse. Dieser Bericht ermöglicht eine datenbezogene Bereinigung, die unerlässlich ist, um die Störungsanfälligkeit der Dosenlinie mit den drei Maschinen zu reduzieren. Darüber hinaus ermöglicht die präzise Bewertung der Linie eine Optimierung der Anlagenausbringung. Denn, eine hohe Datenqualität von mehr als 96 % ist entscheidend für eine maximale Anlagenleistung. Zusammenfassung Der Site-Acceptance-Test fungiert als wesentliches Instrument im kontinuierlichen Verbesserungsprozess. Er schafft eine Brücke zwischen den Erwartungen des Kunden und der technischen Realisierbarkeit seitens des OEM hinsichtlich der generierten Daten. Auf diese Weise entsteht ein gegenseitiges Verständnis dafür, was umsetzbar ist und was nicht akzeptabel ist. Diese Grundlage bildet den Ausgangspunkt zur Entwicklung kundenspezifischer Standards für Maschinendaten.
- Aufbau einer modernen IT / OT Architektur in einem Fertigungsunternehmen
In den sozialen Medien liest man immer wieder Kritik über das 5-Schichten Architekturmodell nach ISA S95. Die Argumente reichen von „sammeln wertloser Daten“, bis hin zu der Annahme, dass es unmöglich sei, die einzelnen Schichten nahtlos miteinander zu verbinden und so eine reibungslose Kommunikation unter ihnen zu ermöglichen. Ebenso wird die Sicherheit einer solchen Struktur oftmals infrage gestellt. Ein Tätigkeitsfeld der Quantis ist die Erstellung und Implementierung einer modernen IT / OT Architektur. Die Kritikpunkte haben ihre Berechtigung, zumal der Markt voll ist mit Strukturen, die genau die oben genannten Unzulänglichkeiten aufweisen. Um sich von fehlerbehafteten IT / OT Architekturen abzuheben, haben wir uns auf die Aufgabenstellung konzentriert und für unsere Kunden ein Architekturmodell erstellt, dass dieser gerecht wird. Dadurch ist es uns möglich, Sicherheit, Datenqualität und reibungslose Kommunikation zu gewährleisten. In den Jahren der Pandemie waren wir gezwungen, unsere Prozesse und Anwendungen zu überdenken. Die Beschaffung von Hardware sowie Zollbestimmungen erschwerten unsere Arbeit und Reisetätigkeiten waren teilweise untersagt. Aus diesem Grund haben wir unsere IT / OT Softwarearchitektur vollständig auf eine virtuelle Basis umgestellt. Eine moderne IT / OT Architektur in einem Fertigungsunternehmen besteht aus mehreren Schichten, die spezifische Funktionen erfüllen und miteinander verbunden sind. Die unterste Schicht umfasst die Geräte, Sensoren und Aktuatoren, die in der Produktion eingesetzt werden, um Daten zu erfassen und physische Prozesse zu steuern. Diese Geräte sind oft über eine industrielle Netzwerkarchitektur wie beispielsweise Ethernet miteinander verbunden. Wenn ältere Maschinen mit OPC UA nicht mehr kompatibel sind, werden sie mit Adaptern und unterschiedlichen Softwaretreibern ausgestattet, um deren Daten auszulesen. Die nächste Schicht ist die OT-Steuerungsebene, die aus Steuerungssystemen wie SPS (Speicherprogrammierbare Steuerung) und DCS (Distributed Control System) besteht, die die Automatisierung der Produktionsprozesse ermöglichen. Solche Systeme kommunizieren mit den Geräten auf der unteren Schicht und sammeln Daten zur Prozesssteuerung. Hier werden alle relevanten KPIs einer Linie berechnet und zur Verfügung gestellt. Es ist auch möglich von hier aus Rohdaten in die Cloud zu senden, was jedoch zu einer hohen Datenmenge führen kann. Die darauf aufbauende Schicht ist die IT-Schicht, welche aus IT-Systemen wie MES (Manufacturing Execution System) und ERP (Enterprise Resource Planning) besteht. Diese Systeme unterstützen die Planung, Steuerung und Überwachung von Produktionsprozessen und ermöglichen eine bessere Integration von Fertigung und Geschäftsprozessen. Bei Quantis ist in der IT-Schicht die Data Bridge angeschlossen, welche als zentraler Sammelpunkt (Broker) für alle KPIs und Rohdaten eines Werks fungiert. Sofern kundenseitig der besondere Wert auf Cyber Security gelegt wird, besteht hier die Option eines Protokollwechsels welches die Maschinendaten in das korrekte Format bringt und verschlüsselt. Über ein vorhandenes Firmennetzwerk werden die Werte mittels Router/Firewall in die entsprechenden Plattformen wie die Pocket Factory, in Data Lakes und an verschiedene Cloud-Anbieter weitergeleitet. Die IT-Schicht kann auch auf KI/ML-Technologien basieren, um datengetriebene Entscheidungen zu treffen und Effizienz und Qualität von Prozessen zu verbessern. In der obersten Schicht befinden sich die Schnittstellen für die Bediener und Anwender, die über verschiedene Endgeräte auf die Daten zugreifen und die Produktion steuern können. Dies können HMI (Human Machine Interface) -Systeme, mobile Anwendungen oder Webportale sein. Um diese Architektur erfolgreich umzusetzen, ist es wichtig, dass die verschiedenen Schichten sicher und nahtlos miteinander kommunizieren können und dass eine klare Datenstrategie festgelegt wird, um die Integration, Analyse und Nutzung von Daten zu optimieren. Cybersicherheit und Organisationsstruktur, Reibungspunkte für eine nahtlose Integration Sicherheit und Organisationsstruktur sind tatsächlich wichtige Faktoren für eine nahtlose Integration von IT/OT-Architekturen in einem Fertigungsunternehmen. Für die Cybersicherheit ist es wichtig, dass die IT- und OT Systeme angemessen gesichert sind und dass Sicherheitsrichtlinien und -Maßnahmen entwickelt und implementiert werden, damit Angriffe auf die Systeme verhindert werden. Unsere Organisationsstruktur liegt in einer One -Way Strategie bei der Beschaffung der Daten. Der Weg der Daten geht immer vom Shopfloor in die Cloud, aber niemals zurück zum Shopfloor. Dadurch wird eine nachträgliche Datenmanipulation vermieden. Eine weitere Maßnahme für eine nahtlose Kommunikation zwischen den Schichten ist der exklusive Zugriff vom Edge auf die Maschinendaten der Shopfloor Ebene via OPC UA Standard. In Bezug auf Cybersicherheit haben wir eine Reihe weiterer Maßnahmen entwickelt und implementiert. Der Kunde hat die Hoheit über die komplette Infrastruktur und Administration derselbigen. Diese beinhaltet auch den Besitz und die Bereitstellung des virtuellen Edge und der Data Bridge. Zur Datenübertragung vom Edge in die Cloud werden AMQP/MQTT Protokolle mit Protokollwechsel und Verschlüsselungen verwendet. Diese gewährleisten Sicherheit und einen hohen Datendurchfluss. Auch Fortbildungen und Awareness-Maßnahmen für Mitarbeiter sind wichtig, um das Bewusstsein für Cybersicherheit zu erhöhen. Quantis implementiert, entwickelt und schult auf Applikationsebene die Mitarbeiter des Kunden. Intensive Schulungen der Mitarbeiter erhöhen den sorgfältigen Umgang mit sensiblen Firmendaten. Weiterhin erhält Quantis als Unterstützer nur beschränkten Zugriff auf Firmendaten. Außerdem gehören zu den Sicherheitsmaßnahmen Firewall Systeme, Protokollwechsel in der Data Bridge und die Mehrfachverschlüsselung der Daten. Es gibt auf der Ebene der Zugriffe auf die Endgeräte Authentifizierung- und Zugriffskontrollverfahren, die die Datensicherheit gewährleisten. In Bezug auf die Organisationsstruktur ist es wichtig, dass die IT- und OT-Teams eng zusammenarbeiten und klare Rollen und Verantwortlichkeiten haben, um sicherzustellen, dass die Systeme nahtlos integriert werden. Es kann auch sinnvoll sein, eine gemeinsame Führung für IT und OT zu etablieren, um eine engere Zusammenarbeit und Koordination zu fördern. Zudem ist es wichtig, dass die Organisationsstruktur flexibel genug ist, um schnell auf Änderungen im Umfeld reagieren zu können, wie zum Beispiel auf neue Bedrohungen oder Anforderungen an die Produktion. Im Rahmen unserer Zugriffserlaubnis, haben wir die Möglichkeit bei Änderungen im Aufbau einer Linie zu reagieren. Zum Beispiel das Anpassen der KPIs sowie das Anbinden, oder Entfernen von Cloudprovidern, ERP-Systemen und Maschinen ist jederzeit möglich und kann auch nach Schulung durch Administratoren selbst vorgenommen werden. Insgesamt erfordert die nahtlose Integration von IT / OT Systemen in einem Fertigungsunternehmen eine umfassende Herangehensweise, die sowohl die technischen als auch die organisatorischen Aspekte berücksichtigt und sich auf die Entwicklung einer umfassenden Sicherheits- und Datenstrategie konzentriert. Industriestandard ISA S95 Manche meinen, dass ISA S95 zwar veraltet ist, aber immer noch benötigt wird, um die Zusammenarbeit von IT und OT zu transformieren. ISA S95 (International Society of Automation Standard 95) ist ein Industriestandard, der die Integration von IT- und OT-Systemen in Fertigungsunternehmen beschreibt. Obwohl der Standard in einigen Bereichen als veraltet angesehen wird, ist er nach wie vor relevant, um die Zusammenarbeit von IT und OT zu transformieren. ISA S95 legt eine Standardarchitektur für die Produktion fest, die eine einheitliche Sprache für IT- und OT Systeme bietet und damit eine nahtlose Integration erleichtert. Der Standard beschreibt eine hierarchische Architektur, die auf verschiedenen Ebenen von der Sensorik bis zur Unternehmensebene definiert ist. Diese Schichtenbildung unterstützt eine klare Trennung von Funktionen und Verantwortlichkeiten und erleichtert die Integration von IT und OT. Ein weiterer Vorteil von ISA S95 ist, dass er die Interoperabilität von Systemen fördert, die von unterschiedlichen Herstellern stammen und in verschiedenen Bereichen eingesetzt werden. Der Standard legt gemeinsame Datendefinitionen und Kommunikationsprotokolle fest, die es verschiedenen Systemen ermöglichen, Daten auszutauschen und nahtlos zusammenzuarbeiten. Obwohl ISA S95 nicht alle aktuellen Entwicklungen in der IT / OT Integration abdeckt, ist er nach wie vor ein wichtiger Referenzpunkt für die Gestaltung von IT / OT Architekturen in der Fertigungsindustrie. Insbesondere für Unternehmen, die noch nicht über eine umfassende IT / OT Integration verfügen, kann ISA S95 eine wertvolle Grundlage für die Transformation und Modernisierung ihrer Produktionsprozesse bieten. Grenzen von ISA S95 bei IT/OT Integration ISA S95 ist ein Industriestandard, der sich mit der Integration von IT- und OT-Systemen in Fertigungsunternehmen befasst. Obwohl er eine solide Grundlage bietet, deckt ISA S95 nicht alle Entwicklungen im Bereich der IT/OT-Integration ab. Einige der Entwicklungen, die ISA S95 nicht abdeckt, sind: Cloud - Computing: ISA S95 wurde entwickelt, bevor Cloud - Computing weit verbreitet war. Der Standard legt keine spezifischen Anforderungen für Cloud-basierte Systeme fest, obwohl dies für die moderne IT / OT Integration zunehmend relevant wird. Big Data Analytics: ISA S95 beschäftigt sich nicht speziell mit Big Data Analytics, obwohl die zunehmende Verfügbarkeit von Daten und die Fähigkeit, sie zu analysieren, für die Fertigungsindustrie von großer Bedeutung sind. Künstliche Intelligenz (KI): ISA S95 behandelt KI nicht direkt, obwohl dies ein aufkommendes Thema in der IT / OT Integration ist. KI-Systeme können helfen, die Produktionsprozesse zu optimieren und die Effizienz zu steigern. Offene Systeme: ISA S95 konzentriert sich auf die Integration von proprietären IT- und OT Systemen. Die Entwicklung von offenen Systemen, die interoperabel und flexibel sind, wird jedoch immer wichtiger. Es ist wichtig zu beachten, dass ISA S95 ein grundlegender Industriestandard ist, der als Referenzpunkt für die Integration von IT und OT in der Fertigungsindustrie dient. Unternehmen sollten jedoch zusätzliche Schritte einführen, um sicherzustellen, dass ihre IT/OT Integration aktuellen Entwicklungen und Best Practices entspricht. Weitere Maßnahmen für reibungslose Integration von IT und OT Um eine reibungslose Integration von IT und OT in einem Fertigungsunternehmen zu erreichen, gibt es verschiedene Industriestandards und Maßnahmen, die Unternehmen ergreifen können. Einige davon sind: Industrie 4.0: Industrie 4.0 ist ein Konzept, das auf die Integration von IT und OT abzielt, um eine intelligentere, flexiblere und effizientere Produktion zu ermöglichen. Es beinhaltet die Vernetzung von Maschinen, die Nutzung von Big Data und Analytics sowie die Automatisierung von Prozessen. Unternehmen können die Prinzipien von Industrie 4.0 als Leitfaden für die Transformation ihrer Produktionsprozesse nutzen. OPC UA: OPC UA (Open Platform Communications Unified Architecture) ist ein Industriestandard für die Interoperabilität von Systemen. Es ermöglicht die nahtlose Integration von IT und OT-Systemen, unabhängig von Hersteller und Anwendungsbereich. OPC UA bietet auch eine sichere und verschlüsselte Datenübertragung und ermöglicht die Integration von Cloud-basierten Systemen. IEC 62443: IEC 62443 ist ein Rahmenwerk für die Sicherheit industrieller Kontrollsysteme. Es bietet Richtlinien für die Absicherung von IT- und OT Systemen und bietet Schutz vor Cyberangriffen. Unternehmen können die Richtlinien von IEC 62443 nutzen, um ihre IT / OT Sicherheitsstrategien zu entwickeln und zu verbessern. Datenqualität: Ein weiterer wichtiger Einwand gegen das IT / OT Schichtmodell ist die fehlende Datenqualität. Man muss in der Lage sein, Daten zu filtern, zu verarbeiten und zu validieren. Mit der Streaming-Analytics-App PureData ist Quantis in der Lage, Daten auf Anomalien, Abhängigkeiten sowie Veränderungen hin zu prüfen und zu validieren. Dadurch ist es möglich, fehlerhafte Daten zu erkennen sowie falsche, unlogische, Ausreißer, Plateauwerte oder undefinierte Werte zu identifizieren. Daten werden durch permanente Analyse und Nachbesserung validiert, um eine größtmögliche Datenqualität beizubehalten. DevOps: DevOps ist eine Methode für die Softwareentwicklung, die darauf abzielt, die Zusammenarbeit zwischen IT- und OT Teams zu verbessern. Nach Implementierung einer solchen Architektur sollte ein Ziel eines Unternehmens sein, effiziente und sichere Prozesse zu gewährleisten. In diesem Zusammenhang spielen auch Daten eine wichtige Rolle, da sie helfen können, Schwachstellen im Betriebsablauf zu identifizieren und zu optimieren. In der DevOps - Philosophie werden Softwareentwicklungs- und Betriebsteams zusammengeführt, um eine enge Zusammenarbeit zu gewährleisten. Aus diesen Daten können neue Berechnungsvorschriften entstehen, die wiederum die Datenqualität erhöhen und das Datenvolumen verringern. Diese neuen Vorschriften können dann in der Shopfloor - Ebene implementiert werden, sodass ein kontinuierlicher Kreislauf entsteht. Durch die enge Zusammenarbeit zwischen Softwareentwicklern und Betriebsteams können nicht nur in einem Werk, sondern auch in allen Werken eines Unternehmens neue Standards entwickelt werden. So trägt die DevOps - Philosophie nicht nur zu einer höheren Effizienz und Sicherheit im Betrieb bei, sondern auch zu einem gemeinsamen Vorgehen, um einheitliche Standards in allen Werken eines Unternehmens zu etablieren. Quantis als umfassender Systemintegrator Die Umsetzung unseres IT / OT Architekturmodells in Zusammenarbeit mit einem großen Getränkehersteller war sehr erfolgreich. Mit den dargelegten Strategien ist es gelungen, alle Schichten nahtlos miteinander zu verbinden. Die hohen Sicherheitsstandards und die Gewährleistung einer gleichbleibend hohen Datenqualität haben den Kunden direkt überzeugt, um weitere Werke mit dieser Architektur ausstatten.
- Anwendung von Use Cases in der Prozessfertigung – digitaler Zwilling vs. Machine Learning /KI
Der Fertigungsprozess in einer Fabrik unterliegt ständigem Wandel. Das oberste Ziel ist, einen möglichst reibungslosen Ablauf der Produktion zu gewährleisten, um damit maximale Ausbringung zu erzeugen. Im Idealfall laufen alle Maschinen störungsfrei. Die Realität sieht etwas anders aus; der Produktionsleiter sieht sich in der Fertigungshalle immer wieder mit Problemen im Ablauf der Produktion konfrontiert. Störungen, verschlissene Ersatzteile, fehlende Komponenten, die die Leistung der Maschinen drosseln, oder im schlimmsten Fall zum Stillstand bringen. Möchte man aktiv die Produktion verbessern, führt der Weg oft über eine Fragestellung, wie ein bestimmter Teilprozess so verändert werden kann, um möglichst großen Nutzen für den störungsarmen Ablauf zu erzielen. Im digitalisierten Fertigungsprozess ist die Entwicklung von Use Cases daher ein wichtiger Bestandteil des Managements, begleitet durch Softwareentwicklung. Um einen Use Case zu entwickeln, ist es wichtig, sich zunächst einen Überblick über die Anforderungen an das System zu verschaffen. Dies schließt auch die Identifizierung der Akteure ein, die mit dem System interagieren. Die Umsetzung des Use Cases kann auf verschiedene Art und Weise erfolgen. Erstellt man nun einen digitalen Zwilling der Anlage, oder bedient man sich des Machine Learning, oder Algorithmen zur Erkennung von Störungen mittels KI. Je nach Geldbeutel und Zeitbudget können alle diese Tools durchaus Sinn ergeben. Ein digitaler Zwilling ist eine digitale Repräsentation eines realen Objekts, das eine detaillierte und präzise Darstellung des Zustands und der Zusammensetzung des Objekts ermöglicht. Der digitale Zwilling kann in einem Fertigungsunternehmen eine wichtige Rolle spielen, da er eine zuverlässige Grundlage für die Analyse der Produktionsanlagen und der Produkte liefert. Er dient als virtueller Prototyp, um die Fertigungsprozesse zu verstehen und zu optimieren. Durch Simulation bestimmter Szenarien ist der digitale Zwilling bei der Erstellung des Use Cases ein wertvolles Instrument. Allerdings sind für dessen Entwicklung detailliertes Prozess-Know-how und Kennzahlen von hoher Datenqualität nötig, um eine möglichst genaue Kopie zu erschaffen. Kommt der digitale Zwilling nahezu an die 100%ige Abbildung der Realität der Maschine, simuliert man verschiedenste Szenarien, lotet Grenzen aus und trifft so fundierte Vorhersagen zu Maschinenverhalten. Zudem kann man mittels Kombination mehrerer Maschinen Voraussagen über das Reaktionsverhalten von Anlagen ermitteln. Die Verwendung von Applikationen für Machine Learning und Algorithmen zur Erkennung von Störungen in komplex verketteten Anlagen sind sehr nützliche Werkzeuge, um die Fertigungsprozesse zu optimieren. Diese Tools können dazu beitragen, die Zuverlässigkeit und Leistung der Anlagen zu verbessern, indem sie die Daten validieren, die Prozesse überwachen und Störungen frühzeitig erkennen. Diese Tools bieten einige Vorteile gegenüber dem digitalen Zwilling. Zum einen können sie viel schneller und effizienter als ein digitaler Zwilling Daten verarbeiten und analysieren. Zum anderen können sie dazu beitragen, bestimmte Probleme in einer Produktionsumgebung zu identifizieren und zu lösen, indem sie potenzielle Probleme frühzeitig erkennen und über Anomalie Erkennung die Daten validieren. Auch können sie dabei helfen, die Prozesse zu optimieren, indem sie die Produktionsanlagen online überwachen und die notwendigen Änderungen vornehmen. Zudem lernen die Algorithmen und Applikationen aus den vorhandenen Rohdaten. Meistens können mit 20 % der Rohdaten bereits zu 80 % treffende Aussagen eines geforderten Use Cases generiert werden. Voraussetzung hierzu ist eine hohe Datenqualität sowie die Verwendung der für den Use Case relevanten Daten. Beide Verfahrensweisen haben ihre Berechtigung. Man muss abwägen, was für die Erstellung eines speziellen Use Cases passt. Oft spielen die Faktoren Geld und Zeit eine entscheidende Rolle. Zu Beginn wird man sich daher eher dem Machine Learning oder dem Einsatz von KI-Algorithmen zuwenden, um mittels Auswahl des passenden Algorithmus und Modellierung der Fragestellung, schnell gute Ergebnisse zu erzielen. Lässt man diese Faktoren außer Acht, ist der digitale Zwilling eine solide Grundlage, um seine Fertigungsprozesse zu optimieren. Voraussetzung ist, dass für die Abbildung der Realität und Überprüfung des korrekten Verhaltens durch Validierung, deutlich mehr Ressourcen notwendig werden. Beide Verfahrensweisen benötigen umfangreiches Prozesswissen, um erfolgreich umgesetzt zu werden, sonst versanden schnell hohe Geldbeträge und am Ende kommt man mit keiner der Möglichkeiten zu einem zufriedenstellenden Ergebnis. Die Firma Quantis setzt mit ihrer IIOT-Plattform auf Machine Learning und KI. Das Wissen hat sich aus jahrzehntelanger Prozesserfahrung in der Getränkeabfüllindustrie entwickelt. Die aus digitalen Zwillingen und deren Simulationen entstandenen Erfahrungen führten zu den heute äußerst erfolgreich verwendeten Algorithmen und Applikationen. Auch wenn das Know-how für einen digitalen Zwilling eher seitens des OEM angesiedelt ist, ist Quantis in der Lage qualitativ hochwertige digitale Zwillinge zu erstellen, wenn der Kunde dies wünscht.
- Digitalisierung einer ganzen Fabrik auf Industrie 4.0
Eine ganze Fabrik zu digitalisieren, klingt nach einer unlösbaren Aufgabe. Zu viele Hindernisse könnte man denken, schließlich besteht eine Fabrik als heterogene Landschaft aus unterschiedlichen Technologien, Maschinen, Herstellern (OEM), Robotern und Komponenten. Diese miteinander zu verbinden, scheint im ersten Ansatz unmöglich. Zwar sind viele Produktionsanlagen in Deutschland auf dem neuesten Stand der Technik, allerdings sind zugleich immer noch alte Maschinen von vor der Jahrtausendwende in Betrieb, die eben nicht einfach digitalisiert werden können. Der Mehrwert bei Umstellung einzelner Linien auf Industrie 4.0 ist mittlerweile von den Betreibern klar erkennbar. Die Arbeitsweise ist dadurch wesentlich effizienter, einfacher und planbarer geworden. Anlagen können effektiv und real durch die gewonnenen Daten bewertet werden. Somit ist es naheliegend, eine komplette Fabrik ganzheitlich zu digitalisieren. Ein Kunde hat sich der Herausforderung gestellt und die Firma Quantis verpflichtet eine Lösung zu erarbeiten und umzusetzen. Die umzustellende Fabrik wies folgende Spezifikationen auf: · 6 Abfülllinien mit drei Linientypen: PET, Glas und Kartonage. · Das Baujahr der einzelnen Maschinen variierte von 1990 bis 2020 · Integration von 36 Maschinen unterschiedlicher Maschinenlieferanten (OEMs) · Sammlung von ca. 1.400 KPIs aus den Maschinen In einem ersten Schritt wurde zusammen mit dem Kunden eine Bestandsaufnahme aller Linien gemacht. In dieser Liste wurde unter anderem jede Maschine dahingehend geprüft, welche Datenpunkte aus den Maschinen verfügbar sind. Bei Maschinen mit Steuerung ohne bestehender Ethernet-Verbindung wurde gemeinsam mit dem Kunden entschieden, ob eine Adaption, oder ein CP (Communication Prozessor) verbaut wird, um die Maschine kommunikativ in das bestehende Netzwerk einbinden zu können. Nach Anpassung aller Maschinen und der Konfiguration einer übergeordneten Edge-Lösung erfolgte das Auslesen aller 1.400 Datenpunkte (KPIs). Nicht immer war jede PLC-Adresse gleich zu finden und je nach Steuerungsart gab es mehrere Möglichkeiten diese zu konnektieren. Nach Einlesen der Daten in das Edge, wurden diese verarbeitet und über eine zwischengeschaltete Bridge in die Cloud gesandt. Sowohl das Edge als auch die Bridge wurden vom Kunden in seine eigene virtuelle Server-Landschaft integriert, was eine eigenständige Verwaltung zur Folge hatte. Für ihn wurden so die vorgegebenen Cyber-Security Anforderungen vollständig erfüllt. Über individuell freigeschaltete Zugänge nach außen hatte der Kunde so jederzeit die volle Kontrolle über das gesamte Netzwerk und den Zugriff auf seine Daten. In der Cloud wurden alle angebundenen Maschinen nach Kundenwunsch analysiert, validiert und aufbereitet. Mithilfe von KapiX, dem Dashboardtool von Quantis, konnten die relevanten Daten übersichtlich und einfach dargestellt werden. Am Ende des Projektes erhielt der Kunde eine ausführliche Dokumentation über alle zur Verfügung stehenden Daten, welche für die Verarbeitung durch andere IT-Systeme bereitgestellt wurden. Der Prozess von der Bestandsaufnahme bis zur Darstellung der Daten wurde bei jedem Schritt durch Quantis begleitet. Nicht bei allen Maschinen war die Einbindung einfach, oft mussten individuelle Lösungen gefunden werden, die nur allein durch Jahrzehnte langes Know-how in der Getränkeabfüllindustrie möglich waren. Zuletzt bleibt noch die Frage, nach dem zeitlichen Rahmen für die Umsetzung des Projektes. So eine komplexe Aufgabe ist nicht an einem Tag zu bewältigen, dennoch ist es in nur 4 Monaten gelungen, Daten eines kompletten Werkes in einer übergeordneten IoT-Plattform zur Verfügung zu stellen. Derzeit bestehende Lieferengpässe von bestimmten Kommunikationskomponenten haben zu langen Lieferzeiten in der Hardwarebeschaffung geführt, welche die Umsetzungszeit ungewollt verlängert haben, sonst könnte man so ein Vorhaben auch in ca. 6 bis 8 Wochen umsetzen. Die Umstellung der ganzen Fabrik auf Industrie 4.0 begeisterte den Kunden derart, dass dieser weitere Fabriken mit diesem Verfahren modernisieren wird.
- KapiX – das Dashboarding Tool
Das Arbeiten mit Dashboards in einer vernetzten Produktion bedeutet heutzutage eine wesentliche Vereinfachung der Darstellung und Auswertung von Daten und Kennzahlen. Dashboards, erstellt mit KapiX aus dem Hause Quantis, sind bei der Analyse von Daten, Verbräuchen und Zuständen in der Produktion unschlagbar, da sie durch ihre Klarheit in der Darstellung bestechen. Neben der historischen Darstellung der Daten können diese auch in Echtzeit angezeigt werden. Somit sind diese für den Anwender immer aktuell und bilden den momentanen Zustand der Anlagen und Maschinen ab. Die Datenströme aus Produktionsanlagen bilden die Grundlage für KapiX. Aus einer Vielzahl von KPIs kann der Maintenance Manager seine individuellen Dashboards selbst und einfach generieren. Die gesammelten und validen Daten sind hierfür die Voraussetzung. Für die Visualisierung der Daten stellt KapiX für die Abfüll- und Verpackungsindustrie zudem eine Anzahl von Dashboards als Templates zur Verfügung. Diese sind in wenigen Schritten individuell anpassbar. Hier bestimmen sie selbst, wie die Daten dargestellt werden. Sind die Dashboards eingerichtet, aktiviert der Maintenance Manager Benachrichtigungen, die bei Näherung an Grenzen von kritischen Benchmark-Werten abgesetzt werden. So haben sie, auch wenn sie nicht gerade mit den Dashboards arbeiten, die Kontrolle über die Produktionsanlage. Ein weiterer Vorteil von KapiX ist die Freigabe der angelegten Hierarchiestrukturen. Jeder Nutzer bekommt die Werte und Daten freigeschaltet, die er wirklich zum Arbeiten benötigt. Somit ist sichergestellt, dass nur autorisierte Personen die ihm zugeteilten Daten erhalten. Mit den Dashboards sind Lebenszeit- und Anomalie Überwachungen von einzelnen Komponenten, Baugruppen, Maschinen und Anlagen möglich. Ebenso ist es sinnvoll, gefertigte Erzeugnisse und Verbräuche der Produktion zu überwachen. In der Praxis erstellen die Maintenance Manager ihre Dashboards selbst. Oft werden relevante Ersatzteile überwacht, um Wartungsintervalle zu erhöhen und somit die Betriebsstundendauern einzelner Komponenten zu verlängern. Jedes Ersatzteil wird mit den entsprechenden Daten im Dashboard hinterlegt. Bei Annäherung an das nächste Wartungsintervall, oder Benachrichtigung, dass eine Verschlechterung vorliegt, prüfen sie auf Sicht, ob das Ersatzteil verschmutzt, oder der Verschleiß schon deutlich fortgeschritten ist. Vor Ort wird entschieden, ob das Ersatzteil ausgetauscht werden muss. So hilft KapiX dem Maintenance Manager zu erkennen, in welcher Baugruppe vermehrt Probleme auftreten, oder welche Parameter in den Messungen angepasst werden müssen. Der Vorteil liegt klar auf der Hand: Verlängerung von Komponentenüberholungen spart Geld. Durch die Erhöhung der Betriebsstundendauern werden die Ersatzteile überwacht und müssen nicht mehr bei der jährlichen Wartung komplett ausgetauscht werden, da viele Ersatzteile noch weiter nutzbar sind. Konkret wurden bei einem Kunden die Betriebsstundendauern von systemrelevanten Komponenten verdoppelt! Ein anderes Beispiel ist die Überwachung von Störungen an Baugruppen oder Maschinen mittels Dashboards. Der Maintenance Manager entscheidet selbst, welche Prozessdaten aufgezeichnet und überwacht werden sollen. Überwacht werden zum Beispiel Druck, Luftfeuchtigkeit, Temperatur, Füllstand oder Drehmoment. Bei Annäherung an Grenzwerte, prüfen sie vor Ort, ob und welche Störung vorliegt. Wenn das Dashboard zum Beispiel eine Benachrichtigung bei Veränderungen der Schaltzeiten von Komponenten auslöst, kann das ein Indiz für Probleme an der Maschine sein. Die Sichtprüfung ergibt dann, ob ein Ventil zu fest angezogen wurde oder der Algorithmus hier zu fein eingestellt ist und nachjustiert werden muss. Auf diese Weise passt der Maintenance Manager die Dashboards an die realen Produktionsbedingungen an und erhält am Ende präzise und auswertbare Daten. Ungeplante Maschinenausfälle werden so minimiert und damit die Lebensdauer teurer Maschinen erhöht. Eine dritte Möglichkeit ist die Überwachung von Verbräuchen in Dashboards. Dadurch werden Leckagen von Druckluft und zu hohe Energieverbräuche aufgespürt und beseitigt. Angesichts der galoppierenden Energiepreise ist dieses hilfreiche Dashboard in jeder Produktion unbedingt erforderlich. Mit KapiX ist es möglich, in der verarbeitenden Produktion für jede Anlage sinnvolle Dashboards zu erstellen und auszuwerten. Der Maintenance Manager als auch der Produktions- und Betriebsleiter wissen um die Probleme in ihrer Anlage oder Maschine, und können mithilfe von bedienerfreundlichen Widgets, Tachos und Heatmaps für sich relevante KPIs generieren und schnell interpretieren. Ist erst einmal ein Dashboard erstellt und die Daten sind aussagekräftig, werden weitere Dashboards folgen. So profitiert die ganze Produktion eines Werks davon. Störungen können besser eingeordnet und behoben werden, Betriebsstundendauern von Ersatzteilen werden verlängert und Verbräuche können überwacht und kontrolliert, und Leckagen vermieden werden. Digital vernetzte Anlagen und Maschinen sind die ideale Voraussetzung, um mit KapiX erfolgreich Daten zu überwachen, darzustellen und auf den Punkt zu präsentieren.
- Pure Data – Datenvalidierung in Produktionsanlagen
Valide Daten sind die Grundlage zur Kennzahlermittlung und Bewertung der Anlageneffektivität in digitalisierten Produktionsanlagen. Im Produktionsprozess erzeugte Werte aus Sensordaten von Maschinen sind in der Regel nicht validiert, oder fehlen. Letztlich lassen sich daraus keine korrekten Aussagen über die Effizienz der Maschinen und Anlagen treffen! Die Ursachen für schlechte Datenqualität sind vielfältig. Das können nicht kalibrierte Daten seitens des OEM sein, oder die Sensoren haben veraltete Einstellungen. Oft verursachen Updates von Produktionsprogrammen Änderungen der Wertebereiche von Sensoren. Eine weitere Ursache kann die Umstellung der Produktion auf eine andere Produktgröße sein, dadurch liegen Werte, wenn diese nicht angepasst werden, außerhalb von Gültigkeiten. Mit Pure Data hat Quantis eine Applikation entwickelt, um Daten zu gewinnen, diese zu prüfen und deren Qualität täglich zu überwachen. Das Tool ist für das Qualitätsmanagement unverzichtbar, denn nur Kennzahlen aus validierten Daten lassen eine fundierte Bewertung der Anlageneffektivität zu. Die Basis ist die Rohdatengewinnung. Für jeden Sensor aller Maschinen werden entsprechend Bedingungen und Regeln zur Prüfung der Datenströme festgelegt, Zähler und Zustände pro Maschine und Sensor definiert. Auf Grundlage dieses individuell erstellten Regelwerkes werden die Datenströme während des laufenden Betriebes analysiert, bewertet und validiert. Das Regelwerk, das Pure Data für jede Anlage erstellt, beurteilt die komplexen Zusammenhänge und Abhängigkeiten, zu denen die Maschinen einer Anlage untereinander stehen. Zielsetzung ist, die Sensoren der Produktionsanlagen so zu kalibrieren, dass mit den gewonnenen Daten, der Anlagenbetreiber für ihn relevante KPIs generieren und berechnen kann. Die Anwendung im laufenden Betrieb ist sinnvoll, da eine permanente Auswertung der Datenströme eine gleichbleibende Datenqualität garantiert. Bei Über- oder Unterschreiten von Grenzwerten, oder Gültigkeiten wird automatisch eine Benachrichtigung via E-Mail oder Dashboard abgesetzt. Bei Störungen kann man schnell und ohne den Produktionsablauf zu stören, eingreifen und falls erforderlich, den Regelkatalog erweitern oder ändern. Die Darstellung der berechneten Daten erfolgt in einem leicht verständlichen Dashboard. Quantis bereitet in seiner Plattform Pocket Factory die Kennzahlen für die Kunden visuell auf, und stellt diese in selbst erzeugbaren Dashboards mit Widgets wie Heatmaps, Histogrammen u. v. m. zur Verfügung. Die wichtigsten Dashboards sind bereits als Templates in der Pocket Factory hinterlegt, und können bei Bedarf ganz leicht selbst angepasst, oder erweitert werden. Die Implementierung der Applikation kann innerhalb kurzer Zeit in der Produktionsanlage erfolgen. Pure Data bietet smarte Features zur Erkennung von nicht validen Daten. Alle Werte werden geprüft, und auf Abweichungen hin untersucht: Defekte Sensoren; Werte stehen auf null, obwohl Anlage läuft Werte, die außerhalb von Gültigkeitsbereichen liegen; Spannung beträgt über 240 Volt, obwohl der Wert zwischen 220 und 240 Volt liegen muss Abhängigkeiten; Zähler zählt, aber die Maschine steht Falsche Werte; die Geschwindigkeit der Maschine ist negativ Logische Werte; der Betriebsstundenzähler darf in einer Stunde nur um den Wert 1 hochzählen Plateauwerte; Temperatur einer Maschine bleibt über Stunden konstant hoch Nicht definierte Werte; Werte werde geliefert, deren Zustand nicht vorliegt Fazit Valide Daten der Maschinen und Anlagen erzeugen aussagekräftige Kennzahlen zur Produktion. Durch die permanente Analyse ist eine gleichbleibende Datenqualität sichergestellt. Bei Veränderungen der Datenlage wird der Verantwortliche durch das System benachrichtigt und kann somit schnelle Korrekturen vornehmen, die nicht in den Produktionsablauf eingreifen. Pure Data kann branchenübergreifend in allen Produktionsanlagen eingesetzt werden. Auch bei älteren Anlagen ist dies möglich.
- Operating Hours Explorer zur Ermittlung exakter Betriebsstundendauern von Ersatzteilen
In komplexen Fertigungsanlagen ist eine planbare Wartung durch genaue Erfassung der Betriebsstundendauern jedes Ersatzteils bisher nicht möglich. Zu diesem Zweck hat die Firma Quantis den Operating Hours Explorer entwickelt und auf den Markt gebracht. Mit diesem Tool ist es möglich, die Betriebsstundendauern der Ersatzteile mit Predictive Maintenance exakt zu ermitteln, und deren Lebensdauer signifikant zu steigern. Am Beispiel der Füllventile in der Getränke-Abfüllindustrie wird gezeigt, wie der Operating Hours Explorer arbeitet. Ausgangssituation Bisher wurde die Wartung in einer Abfüllanlage im jährlichen Turnus durchgeführt. Tagelange Wartungsarbeiten mit daraus resultierenden Maschinenstillständen sind für Unternehmen sehr teuer. Dabei werden alle Füllventile ausgebaut, gewartet, und falls erforderlich, ausgetauscht. Der Austausch der Ventile erfolgt nach den vom OEM vorgegebenen Betriebsstundendauern. Was wurde gemacht Im Operating Hours Explorer erfasst der Maintenance Manager für jedes Füllventil den Betriebszustand, die letzte Generalüberholung sowie die dazugehörenden Betriebsstundendauern. Im Regelfall wird nach Vorgabe vom OEM die Betriebsstundendauer mit 6.000 Stunden festgelegt. Der Operating Hours Explorer ermittelt durch einen automatisierten Lernprozess die tatsächliche Lebensdauer (Betriebsstunden-Benchmark) eines Füllventils. Zudem führt das Tool mit Predictive Maintenance eine Überwachung der Zustände der Füllventile durch, um vorherzusagen, wann welches Ventil ausgetauscht werden soll. Durch festgelegte Parameter ergibt sich die Datengrundlage für die visuellen Darstellungen des Zustandes der Ventile. Die Anzeige erfolgt in einem Dashboard (in dem Fall in einer Heatmap), anhand dessen sich Veränderungen der Ventile vom Anwender leicht ablesen lassen. Ergebnisse Der Anlagenbetreiber konnte mit diesem Verfahren die Betriebsstundendauern bei den Füllventilen annähernd verdoppeln! Dies spart enorme Kosten bei der Ersatzteilbeschaffung. Zudem gibt der Operating Hours Explorer einen Überblick über tatsächlich auszutauschende Ersatzteile an. So können über die Benchmarks hinaus die Ersatzteile genutzt werden. Bei vorzeitigem Verschleiß wird rechtzeitig gewarnt, so kann das betreffende Ventil schnell und unkompliziert ausgetauscht werden, ohne den Produktionsablauf wesentlich zu stören. Betriebsstundendauern erfassbar Überwachung der Betriebsstundendauern der Ersatzteile korrekte Abbildung der Betriebsstundendauern (automatisierte Benchmark-Ermittlung) planbare Wartung durch genaue Erfassung der Betriebsstundendauern Bild von Unsplash
- Vorausschauende Wartung – Wege zum Erfolg
Die Wartung von Maschinen- u. Produktionsanlagen ist auf mehrere Arten möglich. Im Zeitalter der Digitalisierung und der Industrie 4.0 ist eine intelligente Lösung hinzugekommen. Aus Sensordaten der Maschinen werden in Echtzeit große Datenmengen gesammelt und in Data Lakes gespeichert. Die Daten sind da, warum nutzt man diese nicht für eine vorausschauende Wartung? Warum wartet man, bis teure Maschinen einen Schaden nehmen? Warum tauscht man Ersatzteile aus, obwohl diese sicher noch länger laufen würden? Mit den althergebrachten Methoden läuft man der Situation hinterher. In unserer globalisierten Welt kann es sich kein Unternehmen mehr leisten, im Wettbewerb abgehängt zu werden. Daher ist es unerlässlich sich offen für neue Technologien und Ansätze zu zeigen. Hierbei bieten sich kundenorientierte Lösungen von IIoT-Plattformprovidern wie Quantis an. Bei der Umstellung auf vorausschauende Wartung von Maschinen oder ganzen Anlagen ist eine enge Zusammenarbeit mit dem Maintenance Manager unverzichtbar, denn er kennt seine Anlagen besser als jeder andere. Die Vorteile von vorausschauender Wartung liegen auf der Hand. Digitalisierte Daten aus Maschinen und Anlagen helfen Leckagen zu erkennen und beseitigen. Leckagen sind ein Grund für zu hohen Energieverbrauch. Angesichts der signifikant gestiegenen Energiepreise ist eine ressourcensparende Produktion anzustreben. Die Lebensdauer von Ersatzteilen wird erhöht. Durch die Abbildung von Verschleißparametern, wie Temperatur, Vibration oder Druck und der angegebenen Lebensdauer, können Komponenten wie Ventile oder Pumpen überwacht werden. Das System alarmiert den Maintenance Manager bei abweichendem Normalmusterverhalten. So kann das entsprechende Ersatzteil geprüft und rechtzeitig ausgetauscht werden. Eine Nutzung der Ersatzteile kann so signifikant erhöht werden. Zudem verhindert man so teure Maschinenausfälle, die durch kaputte Ersatzteile verursacht werden. In veralteten Anlagen und Maschinen ist es nicht immer möglich Daten aus relevanten Ersatzteilen zu gewinnen. Auch hier kann man mit Prozess Know-How eine kostengünstige Lösung generieren, indem zum Beispiel die effektiven Betriebsstunden der Ersatzteile aufgezeichnet werden. Wichtig sind hier die Gewichtungen der einzelnen Belastungsphasen der Ersatzteile zu definieren und abzubilden. Mittels Machine Learning werden Verschleißdaten berechnet, die anzeigen ab wann es voraussichtlich zu einer Verschlechterung der Ersatzteile kommt. Ein weiterer Vorteil für den Maintenance Manager ist der Entfall einer Sichtprüfung in der Maschinenhalle, da alle Ersatzteile auf einem PC oder Tablet visuell und leicht verständlich in Dashboards abgebildet werden. So spart man wertvolle Arbeitszeit. In komplex verketteten Anlagen können Störungen von vor- oder nachgelagerten Maschinen, sich bis zur Leitmaschine durchschlagen. Die Folge sind Maschinen- oder Anlagenstillstände. Mittels KI stellt der Timestealer-Algorithmus Verschlechterungen an Maschinen fest und kategorisiert und priorisiert diese. Bei sich einschleichenden Verschlechterungen wird eine Benachrichtigung abgesetzt und warnt den Maintenance Manager rechtzeitig, damit verbessernde Maßnahmen ergriffen werden können. Zudem zeigt der Algorithmus an, ob getroffene Maßnahmen zu Verbesserungen in der Produktion geführt haben. Die Digitalisierung von ganzen Abfüllanlagen gleicht einer Reise. Die Umstellung auf vorausschauende Wartung ist ein Prozess, indem der Maintenance Manager immer neue Ideen zur Datenerhebung und Digitalisierung von Komponenten vorbringt. Das setzt einen gewissen Pioniergeist und eine Hands-on Mentalität voraus. Der IIoT- Provider setzt die vorgegebenen Ziele dann um. So entsteht gemeinsam ein Weg nach und nach, die Produktion zu digitalisieren und vorausschauend zu warten. Credits Unsplash Foto Tim Mossholder
- Sustainability - nachhaltiges Wirtschaften
Nachhaltigkeit ist in jedem Unternehmen eine interdisziplinäre Aufgabe. Es betrifft verschiedene Bereiche und Firmenstrukturen, die miteinander arbeiten müssen, um gesetzte Ziele wie Einsparung von Energie und Ressourcen erreichen zu können. Viele Unternehmen haben sich Nachhaltigkeit zur Aufgabe gemacht, da in Zeiten von Klimawandel, Ressourcenknappheit und gestiegener Energiekosten, es nicht nur ratsam ist, sparsam zu sein, sondern auch für zukünftige Generationen Lebensqualität zu schaffen und zu erhalten. Nachhaltig in einem Unternehmen zu wirtschaften bedeutet langfristig zu denken. Prozesse müssen geschaffen und standardisiert werden, Strukturen zu Einsparungen müssen etabliert werden, damit am Ende effektiv auch nachhaltig gewirtschaftet werden kann. Das ist in der Produktion und in der verarbeitenden Industrie ein großes Thema. Ist der Anfang gemacht, kann man Ressourcen und Verbräuche analysieren, und mit den gewonnenen Erkenntnissen, Arbeitsprozesse anpassen, um nachhaltiger zu produzieren. In der Vergangenheit standen Verbrauchsdaten ungenügend zur Verfügung, und damit befand sich die Produktion im „Blindflug“. Wir bei Quantis helfen unseren Kunden das Thema Nachhaltigkeit neu anzupacken. Die Pocket Factory ermöglicht es an der Basis, der Datengewinnung, anzusetzen. Die von uns bereitgestellten, validen Daten werden in unserem Rule Based Manager weiterverarbeitet. Damit erzeugen wir Kenngrößen, die mittels logischer, mathematischer und statistischer Operationen berechnet werden. Aufbereitete Kenngrößen dieser Daten werden in leicht verständlichen Dashboards dargestellt. Zusätzlich eingestellte Notifications erleichtern die Erkennung von Grenzüberschreitungen. Man muss nicht mehr vor Ort die Daten analysieren, sondern das System teilt die Veränderungen mit. Im Datenerhebungsprozess werden so laufend neue Erkenntnisse zu den Verbräuchen gewonnen. Unter dem Hashtag #sustainability werden wir Beispiele aus dem Alltag der Abfüllindustrie bringen, die als Impuls für weiterführende Analysen in puncto Nachhaltigkeit stehen. Bild von Unsplash Noah Buscher
- Nachhaltigkeitsansatz - Monitoring des CO2-Verbrauch in der Dosenabfüllung an mehreren Standorten
Nachhaltigkeit – nahezu jedes Unternehmen hat sich diesem Thema angenommen. Energie- und Ressourcenoptimierung und damit auch deren Einsparung sind wichtige Schritte, um wettbewerbsfähig zu bleiben und nachhaltiger zu wirtschaften. Die Nutzung moderner IIoT-Plattformen, wie die Pocket Factory der Firma Quantis, ermöglichen Datenanalysen aus digital vernetzten Abfüllanlagen, und sind ein wichtiges Werkzeug für intelligente Entscheidungen. Mit der Überwachung des CO2-Verbrauchs erlangt man Erkenntnis, wie hoch der momentane Bedarf ist, und ob dieser innerhalb der Normwerte liegt. Auf Grundlage dessen, gibt eine Datenanalyse Aufschluss darüber, ob eine Reduzierung des CO2-Bedarfs erreicht werden kann. Ist das Bewusstsein geschaffen, in welchen Bereichen zu viel Ressourcen verbraucht werden, kann man innovative Use Cases implementieren, um Verbräuche dauerhaft zu überwachen und zu optimieren. Im konkreten Fall analysiert ein Kunde den Verbrauch des CO2 innerhalb eines Werkes. Der Kunde betrachtet es als sinnvoll, sich die CO2-Verbrauchsdaten der Dosenabfüllung in allen seinen Werken anzusehen. Die Linien ähneln sich in Aufbau und Struktur, so ist es möglich, diese einander gegenüberstellen. So kann man Abweichungen im CO2-Verbrauch zwischen den einzelnen Standorten prüfen. Durch die Nutzung der Pocket Factory stellte der Kunde Unterschiede im CO2-Verbrauch fest. Die berechneten CO2-Kenngrößen werden in Dashboards leicht ablesbar aufbereitet. Der Verantwortliche hat sich selbst die für ihn relevanten Daten der unterschiedlichen Standorte in einem Dashboard zusammengefasst, und kann damit den Ursachen für die Abweichungen im CO2-Verbrauch seiner Standorte auf den Grund gehen. Zudem werden Limits beim CO2-Verbrauch gesetzt, damit der Verantwortliche bei Überschreitungen eines oder mehrerer Grenzwerte per E-Mail oder SMS informiert wird. Um nachhaltig wirtschaften zu können, ist eine digital vernetzte Produktion notwendig. Somit kann man mit Überwachung und Analyse wichtiger Kennzahlen und Verbräuche, in Abfüllanlagen notwendige Produktionsprozesse optimieren. Bild von Jasmin Sessler via Unsplash
- Nachhaltigkeit –Ursachenanalyse bei zu hohem Druckluftverbrauch in der Abfüllindustrie
Nachhaltigkeit ist in jedem Unternehmen eine interdisziplinäre Aufgabe. Es betrifft verschiedene Bereiche und Firmenstrukturen, die miteinander arbeiten müssen, um gesetzte Ziele wie Einsparung von Energie und Ressourcen zu erreichen. Ein Beispiel in der Abfüll- und Verpackungsindustrie ist das Monitoring von Druckluft-Kenngrößen (Air consumption). Die Herstellung von Druckluft benötigt viel Energie, und ist somit sehr kostenintensiv. Oft offenbart sich ein zu hoher Verbrauch an aufzuwendender Energie für den Einsatz von Druckluft. Ausgangssituation Einige Maschinen, wie die Blasmaschine, oder der Etikettierer einer Abfüllanlage benötigen auch während der Ruhephase in geringem Maße Druckluft. Diese dient als Lufttrockner, um Keime, Feuchtigkeit und Verschmutzungen zu vermeiden. Die Druckluft erzeugt ein Kompressor, der mit Strom betrieben wird. Der Anlagenbetreiber wollte den Druckluftverbrauch während der Produktion und während der Ruhephase der Produktion ermitteln. Was wurde gemacht? Mithilfe eines von der Firma Quantis entwickelten Dashboards analysierte der Anlagenbetreiber den Druckluftverbrauch über einen festgelegten Zeitraum. Durch Erhebung des Druckluftverbrauchs für jede Maschine pro Stunde und pro Tag und das Visualisieren der Daten im Verhältnis Ruhephase zur Produktion konnte der Gesamtverbrauch gegenübergestellt werden. Dabei stellte der Anlagenbetreiber fest, dass in der Ruhephase zu viel Luft an den genannten Maschinen verbraucht wurde. Ergebnis Die Anlage wurde auf Vorhandensein von Leckagen untersucht. Durch Dichtungsaustausch konnte der Druckluftverbrauch während der Ruhephasen um mehr als die Hälfte verringert werden. Der Maintenance Manager hat die Daten visuell in Dashboards aufbereitet im Büro zur ständigen Verfügung. Es ist nicht mehr nötig, den Verbrauch in der Produktionshalle am Maschinendisplay abzulesen. Zudem werden automatisch vom System Benachrichtigungen bei Überschreiten von gesetzten Grenzwerten an den Maintenance Manager geschickt. Fazit Angesicht der schnell steigenden Energiepreise, insbesondere beim Strom, erzeugt die Überwachung des Druckluftverbrauchs einen Mehrwert, um Energie zu sparen und damit unnötige Kostentreiber zu eliminieren. Bild von Unsplash Casey Horner