de | en

Research & Development Produktion Sales Service Intralogistik Human Resources Organisationale Kompetenzen Methoden- und Sozialkompetenz

Good Practices Kompetenzentwicklung

Neue Anforderungen an Arbeitsplätze und Beschäftigte

Kompetenzen Research & Development

Die Digitalisierung ist auch im Bereich Research & Development angekommen. Mitarbeitende müssen neue digitale Tools beherrschen und digitale Mindsets verinnerlichen.

Die folgende Matrix zeigt ein Minimum Viable Product (MVP) für den Bereich Research & Development. Weitere Anregungen und Ergänzungen sind jederzeit willkommen.

› Alle Matrizen

Tiefe            
Betrieb und Nutzung Datenräume
       
 
Simulation Anlage
 
Product Cybersecurity
 
Datenaustausch
     
Simulation der Physik
Simulation Produkt
Code-Testung
User Interface Design
Simulation Anlage
Datenaggregation
Humanisierung
Geschäftssimulation
Lernschleifen
Prototyping 3-D-Druck
CAD-Design
Software Architektur
SW Entwicklungs-umgebungen
Anwendungssimulation
Datenqualität
Autonome Struktur
Cloud Services
Iterative Entwicklung
Funktionales Design
Betriebssysteme
Systemarchitektur
Datenmodelle
Maschinelles Lernen
Cloudinfrastruktur
Kundenzentrierte Entwicklung

    F u n k t i o n     i n     B r e i t e   › › ›
   
Mechanik
Elektronik
Produktorientierte Software
Software
Digital Systemengineering
Daten
KI
Ökosysteme
Methoden
 
 

Teilnehmende der Projektgruppe R&D:

Christian Brosig, Liebherr-Werk Biberach GmbH
Dr.-Ing. Thomas Franco, Oskar Frech GmbH + Co. KG
Klaus Kilian, AZO GmbH + Co. KG
Werner Seifried, Liebherr-Werk Biberach GmbH
Dr. Niels Syassen, SICK AG

Industrie 4.0 erfordert neuartige Kompetenzen in Unternehmen und angepasste Qualifikationen.

Jérôme Jetter

Projektmanager Lernen und Qualifizierung 4.0

Kundenzentrierte Entwicklung

Die kunden- oder nutzerzentrierte Entwicklung ist ein Prinzip der Produktentwicklung bei dem der Endanwender oder der Kunde als Ausgangspunkt von Entwicklungsaktivitäten gesetzt wird. Im Gegensatz zum Prinzip der produktfokussierten Entwicklung wird der Anwender oder der Kunde stark in die unterschiedlichen Phasen (z.B. Analyse, Konzepterstellung, Validierung, Markteinführung) einbezogen. Methoden wie z.B. „Design Thinking“ basieren auf dem Prinzip der Kundenzentrierung.

Anwendungssimulation

Die Anwendungssimulation betrachtet meist virtuelle physikalische und/oder chemische Prozesse hinsichtlich ihrer Umsetzbarkeit und  erlaubt Aussagen über wichtige Parameter, die für die spätere reale Durchführung des Prozesses relevant sind. Grundlage jeder Anwendungssimulation ist dabei stets die möglichst naturgetreue Beschreibung geeigneter mathematischer, physikalischer und chemischer Modelle sowie deren Darstellung auf einer virtuellen Simulationsumgebung. Anwendungsbeispiele sind, Schweiß- oder Lötprozesse für die Fertigung, Stoffumwandlungsprozesse in der chemischen Verfahrenstechnik, Temperaturverteilungen in der Thermoprozesstechnik oder fluiddynamische Charakterisierungen von Flüssigkeiten in der Strömungstechnik. Die Anwendungssimulation bildet analog zur Anlagensimulation einen digitalen Zwilling ab, der sich hier jedoch auf den Prozess selbst  und weniger auf das Produkt fokussiert.

Prototyping 3D Druck

3D-Druck ist die Bezeichnung von Fertigungsverfahren bei denen ausgehend von einem 3D-Modell Material Schicht für Schicht aufgetragen wird. Die additive Fertigung beinhaltet alle Fertigungsverfahren, bei denen Materialverbindungen durch verschmelzen, laminieren oder auftragen entstehen. Die additive Fertigung ermöglicht kundenspezifische Lösungen mit „Stückzahl 1“.

Simulation Anlage

Beschreibt die Simulation der Steuerungs- und Regelungstechnik einer Anlage in der Fertigung. Die E/E Simulation von Anlagen wird in Verbindung mit dem digitalen Zwilling für Einsatzmöglichkeiten wie z.B. die virtuelle Inbetriebnahme beschrieben. Technologische Weiterentwicklungen werden dabei vor der physikalischen Implementierung und Inbetriebnahme mithilfe des Zwillings simuliert. (Brosig) Mittels mathematischer, physikalischer oder „Machine-Learning“ Algorithmen kann das Verhalten von Anlagen oder Maschinen simuliert werden. Dies ermöglich z.B. die Optimierung von Produktionsprozessen.

Simulation Produkt

Wie vorheriges nur auf das Leistungsversprechen des jeweiligen Maschinen- und Anlagenherstellers bezogen.
Bei der Produktsimulation werden Verhaltensweisen von Produkten simuliert. Dazu wird ein virtuelles Model eines Produktes („Digitaler Zwilling“) erstellt. Technologische Weiterentwicklungen werden dabei vor der physikalischen Implementierung und Inbetriebnahme mithilfe des Zwillings simuliert. Ein solches Modell kann genutzt werden, um z.B. eine virtuelle Inbetriebnahme in einer Anlage durchzuführen.

CAD-Design

Für die Elektro- und Elektronikkonstruktion ist die 3D basierte Entwicklung von elementarer Bedeutung. Gerade im Bereich der Kabellängenkonfektionierung sowie der Interferenzanalyse stellt diese einen immensen Wert dar. Computer-aided Design (CAD) bezeichnet die rechnerunterstütze Konstruktion zur Herstellung eines Produktes. CAD gehört zur Gruppe der Cax-Technologien (weitere Beispiele sind: Computer-aided Manufacturing, Computer-aided Quality).

Code-testing

Das Testing für Produktsoftwareentwicklung wird in der Norm ISO/IEC/IEEE 29119 Software Testing beschrieben. Üblicherweise wird hierin nach dem V-Modell gearbeitet wobei sich die Tests aus Komponenten-, Integrations- und Systemtest zusammensetzen.

Software Architektur

Bei der Software Architektur für Produkte wird für eine bestimmte Generation von Geräten oder Anlagen, oft wird auch von Plattformen gesprochen, bestimmt wie sich die Komponenten Software und Hardware zusammensetzen und wie die Schnittstellen beschrieben sind. Einfache Architekturmodelle können in semiformalen Sprachen wie UML oder SysML beschrieben/modelliert werden. Aus SysML Modellen kann brauchbarer Softwarecode automatisiert generiert werden.

Product Cybersecurity

Cyber Security bezieht sich hier auf den Schutz von Produkten und Systemen, die mit dem Internet verbunden sind, vor Bedrohungen aus dem Cyberspace. Sie umfasst den Schutz von Hardware, Software und Daten und soll verhindern, dass Cyber-Kriminelle Zugriff auf Geräte, Systeme oder Netzwerke erhalten.

User Interface Design

Das „User Interface Design“ beschreibt die Gestaltung bzw. das Design der Schnittstelle (engl. Interface) zwischen Mensch und Maschine. Das Ziel ist dabei, eine möglichst optimale Anwenderschnittstelle zu schaffen, die auf einen breiten Kreis von Nutzern abzielt und möglichst deren Bedürfnisse, wie einfache und möglichst intuitive Bedienbarkeit, erfüllen. Die Maschine-Mensch-Schnittstelle kann dabei sowohl visuell als auch akustisch ausgeführt sein. Typische Beispiele sind: grafische Bedienoberflächen von Maschinen, Webdesigns, Spracherkennungssysteme, Navigationssysteme, Mobile Geräte (Handy, Laptop Tablet etc.).

SW Entwicklungsumgebung

Die SW Entwicklungsumgebung, auch integrierte Entwicklungsumgebung (IDE, engl. Integrated development environment), beschreibt meist mehrere Computerprogramme, mit denen sich in ihrer Gesamtheit Softwareentwicklung ohne Medienbrüche und vereinfacht durchführen lässt. Dabei werden von der Entwicklungsumgebung hilfreiche Werkzeuge zur Verfügung gestellt, die den Entwickler unterstützen und ihm wiederholende Aufgaben durch schnellen Zugriff auf entsprechende Funktionen zur Programmiervereinfachung ermöglichen. IDEs werden in fast allen Programmiersprachen und Plattformen verwendet.

https://www.fortbildung-bw.de/wbLegacy/Kurs/25059076_Sichere_Programmierung__Validierung_von_Software_in.html/?wort=sick

Betriebssysteme

Im engeren Sinne ist ein Betriebssystem (engl. Operating System) die Software-Ebene, die die Computer-Hardware zugänglich macht und verwaltet. Aufsetzend auf das Betriebssystem laufen dann die sogenannten Anwendungsprogramme. Beispiele für Betriebssysteme sind Windows, Linux, RTOS (Real Time Operating System), Android oder iOS. Das Betriebssystem eines Systems bildet den Übergang zwischen der Hardware- und der Anwendungsschicht. Je nach Anforderung – wie Verfügbarkeit, Sicherheit, Echtzeitfähigkeit, Rechenleistung –  werden unterschiedliche Ausprägungen von Betriebssystemen eingesetzt. Durch entsprechende Architekturen kann sichergestellt werden, dass Software-Anwendungen unabhängig von der eingesetzten Hardware funktionieren.

Simulation Anlage

Bei der Anlagen-Simulation wird ein Produkt, z.B. eine Produktionseinheit, virtuell hinsichtlich ihrer Betriebseigenschaften simuliert. D.h. die Maschine oder Teilmaschine befindet sich im virtuellen Raum als sogenannter „Digitaler Zwilling“ (engl. digital twin). Dieser lässt sich so z.B. hinsichtlich seiner Funktionalität und Betriebseigenschaften in Grenzbereichen testen ohne das eine reale physische Anlage existiert. Damit lassen sich beispielsweise bereits vor dem meist kostenintensiven Bau eines Produkts, bzw. einer Maschine, sinnvolle Aussagen über deren Machbarkeit und Betriebszuverlässigkeit durchführen. Anwendung findet der „Digitale Zwilling“ heute meist im konstruktiven Maschinenbau und steht vor dem eigentlichen Prototypenbau. Aber auch in der Transportwirtschaft, Produktion- und Auftragssteuerung sowie in der Medizin werden digitale Zwillinge eingesetzt. Die Summe unterschiedlicher Maschinen und Produktionseinheiten können erweitert auch in einer sogenannten „Digitalen Fabrik“ abgebildet werden, um so z.B. vor deren physischen  Entstehung ganzheitliche Aussagen hinsichtlich Effizienz, Funktionalität und Architektur machen zu können.

Systemarchitektur

Die Systemarchitektur beschreibt die Komponenten (z.B. Hardwarekomponenten, Softwarekomponenten) eines Systems und deren innere und äußere Schnittstellen. Eine modulare Architektur ermöglicht es, die Systemkomplexität handhabbar zu machen. Weiterhin ermöglicht sie eine dezentrale Zusammenarbeit, wie sie oft bei stark softwarebasierten Systemen eingesetzt wird. Die Erstellung einer Systemarchitektur wird mittels entsprechender Methoden und Tools (z.B. V-Modell, UML) unterstützt.

https://www.fortbildung-bw.de/wbLegacy/Kurs/25059079_Integration_Solutions_Basics_Industrie_40.html/?wort=sick

Iterative Entwicklung

Die iterative Entwicklung ist ein Vorgehensmodell bei dem zyklisch in kleinen inkrementellen Schritten Entwicklungsergebnisse generiert werden. Es basiert auf dem Prinzip der kontinuierlichen Verbesserung. Dieses Modell ist geeignet, um komplexe oder unbekannte Fragestellungen zu bearbeiten. Die agile Software-Entwicklung basiert auf dem Vorgehensmodell der iterativen Entwicklung

Betrieb und Nutzung Datenräume

Ein Datenraum ist ein dezentrales Konzept zur Integration von Informationen unter Wahrung der digitalen Souveränität („selbstbestimmte Nutzung von Daten“) der Teilnehmer des Datenraumes. Er ermöglicht, die Erstellung von Mehrparteien Use-Cases um insbesondere auch digitale Geschäftsmodelle zu ermöglichen (z.B. Externe Logistikservices in einem Unternehmen, die automatisch einen Bezahlvorgang auslösen). Die Zielstruktur eines Datenraumes muss nicht vorab festgelegt werden, sondern wird durch Mapping- und Matching Verfahren erstellt (z. B. dezentrale Authentifizierungs- und Integritätsverfahren).
Datenräume (engl. Dataspaces) sind geschützte Bereiche in IT-Architekturen, in denen Daten sicher und mit klaren Besitz- und Zugriffsrechten aufbewahrt werden können. Die interne Struktur der Datenräume ist frei und flexibel. In einer von der deutschen Bundesregierung unterstützten Initiative wurde der International Data Space (vorher: Industrial Data Space) definiert, um einen sicheren und domänenübergreifenden Datenaustausch zu ermöglichen.

Datenaustausch

Datenaustausch beschreibt die wechselseitige Übermittlung von Informationen zwischen Schnittstellenpartnern. Schnittstellenpartner können z.B. Sensoren, Aktoren, Steuerungen, Computer oder Programme sein, die die empfangene/empfangenen Daten intern verarbeiten und je nach Anwendungsfall Reaktionen auslösen.  Ein Datenaustausch findet auf elektronischem Weg statt und kann über definierte Protokolle (z.B. ProfiNet, TCPIP, MQTT, OPC UA, …) mit unterschiedlichen Sicherheitsaspekten zu unterschiedlichen Zwecken (Echtzeitverarbeitung von Signalen, Datenaggregation auf einem Edge-Device oder in der Cloud, …) übertragen werden.

Datenaggregation

Unter Datenaggregation versteht man das Verdichten von Informationen in geeigneten Systemen (z. B. Datenbanken). Ziel der Datenaggregation ist das Zusammenfassen von logisch zusammengehörigen Einzeldaten/Merkmalen, um dadurch neue Erkenntnisse/Zusammenhänge zu erlangen und um eventuell Speicherplatz zu sparen, wenn sehr viele Rohdaten vorliegen und diese nicht 1:1 für einen sehr lange Zeit gespeichert werden sollen oder es nicht sinnvoll ist, diese Rohdaten alle in einen Datenaustausch aufzunehmen.

Datenqualität

Unter Datenqualität versteht man die Bewertung von Einzeldaten und kompletten Datenbeständen hinsichtlich ihrer Eignung, eine bestimmte Fragestellung bzw. einen bestimmten Zweck zu erfüllen. Kriterien für die Datenqualität sind unter anderem die Vollständigkeit, Genauigkeit, Korrektheit, die Relevanz und die Verlässlichkeit der Daten, sowie ihre Konsistenz und Verfügbarkeit. Je höher/besser die Datenqualität ist, desto mehr Vertrauen erhält eine anhand der Datenbasis getroffene Entscheidung.

Datenmodelle

Ein Datenmodell umfasst eine Beschreibung vorhandener Informationen / Daten und deren Beziehungen zueinander für einen bestimmten Anwendungsfall. Durch diese Gesamtbeschreibung der Daten sowie die damit verbundenen Zusammenhänge wird sichergestellt, dass alle Objekte genau dargestellt sind und alle Abhängigkeiten und Beziehungen definiert sind und entsprechend (grafisch) dargestellt werden können.

Humanisierung

Im Kontext von Industrie 4.0 bedeutet Humanisierung die bessere Anpassung der Technologie an menschliche Interaktionen, Denkweisen und Bedürfnisse. Konkrete Beispiele sind benutzerfreundliche Schnittstellen, Spracherkennung, persönliche digitale Assistenten, Gesten-Erkennung, Erkennung von Stimmung und Absichten der Benutzer sowie die entsprechend angepasste Interaktion zwischen Menschen und technischen Systemen. So passen sich moderne Benutzerschnittstellen automatisch dem offensichtlichen Kenntnisstand des Benutzers an (z.B. Kontext-Hilfen oder Expert Level). Diese Art der Humanisierung wird durch Ansätze der künstlichen Intelligenz stark unterstützt.
Aspekte der Humanisierung werden aber auch die Wechselwirkung zwischen technischen Systemen beeinflussen. So spielt im Bereich der Cybersecurity der „Vertrauenslevel“ zwischen technischen Systemen eine zunehmende Rolle, wobei dieser Vertrauenslevel wie in menschlicher Interaktion zunehmend aus vielen verschiedenen Merkmalen zusammen abgeleitet werden kann.

https://www.fortbildung-bw.de/wbLegacy/Kurs/25059074_Sichere_MRK_Systeme_Mensch_Roboter_Kollaboration_in_79183_Waldkirch_Breisgau_Buchholz.html/?wort=sick

Autonome Struktur

Die meisten aktuell im Einsatz befindlichen Autonomen Systeme sind erst ein Anfang. Dazu zählen zuerst einmal Assistenzsysteme, die vom Menschen bewusst aktiviert werden und in die er jederzeit eingreifen kann. Sie übernehmen einen bestimmten Handlungsablauf in einem vorgegebenen Rahmen, können diesen aber nicht ändern. Die nächste Ausbaustufe stellen teilautomatisierte Systeme dar, die etwas weniger Kontrolle erfordern. Wirklich autonom ist ein System aber erst dann, wenn es ohne menschliches Zutun und ohne detaillierte Programmierung ein vorgegebenes Ziel oder Ergebnis selbstständig erreichen kann. Dazu muss es lernfähig sein. Damit sind für ein vollständig Autonomes System sowohl Sensorik und Aktorik nötig wie auch Künstliche Intelligenz, mit der die empfangenen Daten interpretiert und Lernerfolge abgespeichert werden.

Maschinelles Lernen

Maschinelles Lernen bezeichnet die „künstliche“ Generierung von Wissen aus Erfahrung. Ein künstliches System lernt aus Beispielen und kann diese nach Durchlaufen einer
Lernphase verallgemeinern. Damit können auch unbekannte Daten beurteilt werden. Es kommen verschiedene Lernverfahren zum Einsatz. Ein solches Verfahren ist Deep Learning, bei diesem werden künstliche neuronale Netzwerke genutzt.

https://www.fortbildung-bw.de/wbLegacy/Kurs/25059077_Erfolgreich_Kuenstliche_Intelligenz_in_der_Qualitaetskontrolle_einsetzen.html/?wort=sick

Geschäftssimulation

Bei der Geschäftsmodellsimulation werden Geschäftsmodelle mit Hilfe von Simulationsmethoden entwickelt & optimiert. Fragestellungen wie z.B. die Entwicklung von Zahlungsströmen, die Identifizierung von Wachstumsengpässen oder die Simulation von Wechselwirkungen im Umfeld der „Platform-Economy“ können mit den entsprechenden Verfahren betrachtet und analysiert werden.

Cloud Services

In der Informatik bezeichnet Cloud oder Cloud Computing eine IT-Infrastruktur (mit Speicherplatz, Rechenleistung, Software), die über das Internet zur Verfügung steht. Die genaue Realisierung der Cloud (zum Beispiel über verteilte Server o.ä.) steht dabei für den Anwender nicht im Vordergrund oder ist komplett irrelevant. Bei Cloud-Services handelt es sich um Dienstleistungen, die über das Internet zur Verfügung gestellt werden. Man unterscheidet folgende Kategorien: Infrastructure-as-a- Service (IaaS): z.B. Netzwerkbetrieb, Datenspeicherung, Platform-as-a-Service (PaaS): z.B. Plattform, um E-Commerce Applikationen zu entwickeln, Software-as-a-Service (SaaS): z.B. Bereitstellung von Büro-Software. Der Vorteil von Cloud Services liegt in der einfachen Skalierbarkeit.

Cloudinfrastruktur

Die Cloud Infrastruktur besteht aus Servern, Netzwerkkomponenten, Datenspeichern, Rechenressourcen und Sicherheitsfunktionen. Die Cloud-Infrastruktur wird als Service angeboten, der über das Internet genutzt werden kann. Durch die verteilte Architektur kann eine hohe Robustheit und Flexibilität gewährleistet werden.

Lernschleifen

Die Lernschleife ist ein Element des kontinuierlichen Verbesserungsprozesses. Dieser besteht aus den vier wiederholenden Phasen: Plan – Do – Check – Act (PDCA-Zyklus). Der PDCA Zyklus wird in der kontinuierlichen Produktenwicklung eingesetzt und fördert ein iteratives Vorgehensmodell.

Simulation der Physik

Ist ein numerisches Verfahren, das unter anderem im Rahmen von Simulationen zur gezielten Strukturanalyse und -optimierung eingesetzt wird. Bei der FEM werden kleine Bereiche eines Bauteils oder eines Berechnungsgebietes genutzt, um das physikalische Verhalten des Bauteils abzubilden. Grundidee ist die Zerlegung (Diskretisierung) des Berechnungsgebietes in kleine, einfache Formen wie beispielsweise Dreiecke oder Rechtecke (2D-Elemente) sowie Tetraeder oder Quader (3D-Elemente) – die finiten Elemente. Durch dieses Vorgehen kann das Verhalten komplexer Geometrien auf der Elementebene formuliert werden.