KI in der Gießerei: Auf das Fundament kommt es an
Die große Erwartung
Es gibt kaum ein Thema, das in der Industrie gerade mehr Aufmerksamkeit bekommt als Künstliche Intelligenz. Auf jeder Messe, in jedem Fachmagazin: KI wird analysieren, optimieren, vorhersagen. Die Daten laufen ein, die Weisheit kommt raus.
Und ich will das gar nicht kleinreden. Die Möglichkeiten sind real. KI kann in der Produktion Muster erkennen, die kein Mensch manuell über hunderte von Parametern hinweg verfolgen würde. Predictive Maintenance, Schmelzoptimierung, Qualitätsprädiktion — das ist keine Fantasie mehr.
der Unternehmen schätzen
ihre Daten als nicht KI-bereit ein
(Gartner 2024/25)
„Aber es gibt eine Frage, die in dieser Begeisterung zu selten gestellt wird: Womit soll die KI eigentlich und gerade in der Gießerei arbeiten?"
Der Patient mit dem schlechten Gedächtnis
Die Analogie
Viele unserer Produktionsdatenbanken sind wie 80-jährige Alzheimer-Patienten. Sie leben noch. Sie liefern Daten. Aber sie erinnern sich an das Falsche, vergessen das Wichtige und verwechseln Dinge, die zusammengehören.
Schlimmer noch: Wir haben sie verkleinert, wenn der Inhalt zu groß wurde — einfach die Tabellen mit den meisten Daten gelöscht. Und dabei nicht selten genau die Daten vernichtet, die heute zum Anlernen einer KI fehlen würden. Die Historie, die Muster über Jahre zeigen würde. Unwiederbringlich weg.
Konkret in der Gießerei: Das ERP-System weiß, was bestellt wurde. Die SPS der Induktionsanlage weiß, welche Temperaturkurven gefahren wurden. Das Qualitätssystem weiß, welche Teile Ausschuss waren. Aber weiß irgendjemand dieser Systeme, welche Schrottcharge in welcher Schmelze war? Wie lange das Gussteil wirklich in der Abkühlzone lag? Warum der Meister an diesem Dienstagmorgen die Sandaufbereitung manuell nachgesteuert hat?
„KI ist sowohl ein Resultat als auch eine treibende Kraft der Digitalisierung — allerdings setzt ihr breiterer Einsatz eine adäquate Datenbasis voraus." — Wallenhorst, Perspektivenwechsel in der Digitalisierung, 2023
Die Anlage wurde migriert. Die Datenbank nicht.
Die Produktionsanlagen wurden in den letzten 20 Jahren konsequent modernisiert. Von S5 auf S7, dann auf TIA Portal mit OPC-UA-Anbindung oder MQTT-Protokoll. Die Maschinentechnik ist auf dem Stand der Zeit.
„Die Tabellenstruktur von heute ist oft noch die Tabellenstruktur von 2002."
Ich rede nicht von Versionsupdates — von Oracle 18 auf 23, von SQL Server 2008 auf 2019. Das ist nur technische Wartung. Ich rede von inhaltlicher Erweiterung: neue Tabellen, neue Parameter, neue Felder für das, was heute wirklich relevant wäre. Die Möglichkeiten die eine Anlagenmodernisierung bietet — mehr Sensordaten, feinere Auflösung, Echtzeitkommunikation — wurden nicht genutzt, um die Datenbasis zu verbessern.
Ich habe Betriebe erlebt, deren Anlagensteuerung auf dem neuesten Stand der Technik war — und deren ERP-Stammdaten Vorgabezeiten enthielten, die seit der Systemeinführung 1998 nicht ein einziges Mal aktualisiert worden waren. Sie standen da wie Fossilien: technisch vorhanden, inhaltlich wertlos.
Drei verschiedene Probleme — die man nicht verwechseln darf
Wenn ich auf das Datenproblem aufmerksam mache, erlebe ich häufig, dass drei grundsätzlich verschiedene Probleme in einen Topf geworfen werden. Jedes verlangt eine andere Antwort.
Datenqualität
Felder nicht befüllt. Ist-Zeiten entsprechen Soll-Zeiten. Chargennummern nicht gepflegt. Das ist ein Datenpflege-Problem — kein KI-Problem.
Datenisolation
ERP, Anlagensteuerung, MES kennen einander nicht. Fünf Alzheimer-Patienten ins gleiche Zimmer zu setzen macht sie nicht gemeinsam schlauer. Hier kann KI tatsächlich helfen — aber nur wenn die Einzeldatenbanken etwas Sinnvolles zu erzählen haben.
Datenlücken
Manche Informationen existieren in keinem System. Heiße Lagerzeit nach dem Entformen. Tatsächliche Transportroute. Erfahrungswissen des Schmelzmeisters. Hier muss man erst Daten erzeugen, bevor man sie analysieren kann.
Ein Wort zur Eingrenzung: Wir reden über die Produktion
KI in Einkauf, Vertrieb und Controlling wird kommen — und ist schon da. Dieser Nutzen wird größtenteils von ERP-Anbietern geliefert werden, als Standardfunktion in der nächsten Systemversion. Das braucht keine gesonderte Strategie.
Aber es gibt Fälle die wirklich interessant sind: Der erfahrene Rohstoffeinkäufer einer Gießerei der Kupfer, Nickel und Roheisen kauft — fünf Dimensionen gleichzeitig im Kopf: aktuelle Marktpreise, Auftragsbestand, Vertriebsforecast, Bestellverhalten der Stammkunden, Kapitalbindungskosten. Kein Mensch kann diese Dimensionen in Echtzeit optimal auswerten. Das ist ein Fall, wo KI tatsächlich Wert schöpft.
„Ein Einkäufer kauft Roheisen 10 Euro/t günstiger. Grünes Licht im Controlling. Was die Auswertung nicht zeigt: Dieses Roheisen erzeugt 20 kg mehr Schlacke pro Charge. Mehr Schlackenarbeit, mehr Energie, mehr Tiegelverschleiß. Die Ersparnis im Einkauf ist längst verbraten — aber in einer anderen Kostenstelle, die niemand in Verbindung gebracht hat."
„KI findet immer Korrelationen. Die Frage ist: In welchen Daten? Und wofür?"
Wer heute KI auf Produktionsdaten loslässt, ohne die Datenstruktur zu kennen, liest eine DNA ohne die Helix zu verstehen. Er sieht Buchstaben. Keine Bedeutung.
Die Lücke schließen: pragmatisch und schrittweise
Die gute Nachricht: Die Lücke lässt sich schließen. Nicht mit einem Großprojekt, nicht mit einer Revolution der Systemlandschaft — sondern schrittweise, mit klarem Blick auf das, was wirklich fehlt.
Schritt 1: Ehrliche Bestandsaufnahme
Welche Daten habe ich wirklich — in welcher Qualität, über welchen Zeitraum, mit welchem Chargen- oder Artikelbezug? Nicht was im System steht, sondern was tatsächlich konsistent und verlässlich befüllt wurde. Das ist oft ernüchternd. Aber es ist der einzige ehrliche Ausgangspunkt.
Schritt 2: Fehlende Parameter nachrüsten
Moderne IoT-Sensorik ist erschwinglich geworden. Ein konkretes Beispiel: Hänge ich einen einfachen Bluetooth-Tracker an eine Gießkiste und verknüpfe ihn mit Artikelnummer, Charge, Gewicht und Komplexitätsklasse — bekomme ich innerhalb von Wochen echte, bauteilbezogene Bewegungsdaten. Haltezeiten nach Gewicht. Tatsächliche Transportwege. Den Unterschied zwischen geplantem und realem Durchlauf.
Schritt 2b: Daten systemübergreifend denken
„Nicht: Was kann meine Anlage messen? Sondern: Wie verbinde ich das, was meine Anlage misst, mit dem Rest des Systems?"
Wer Daten nur singular in der eigenen Maschine ablegt, ohne Kontextbezug herzustellen, produziert Daten — aber keine Information. Die Temperaturkurve eines Schmelzofens ohne Chargenbezug ist für eine KI genauso wertlos wie ein Datum ohne Jahr.
Beispiel: Luftdruck, Luftfeuchtigkeit und Temperatur der Gießhalle. Für einen erfahrenen Aluminiumgießer keine trivialen Randwerte — Luftfeuchtigkeit beeinflusst die Schmelzqualität, die Porenbildung, das Entgasungsverhalten. Das Erfassen dieser Parameter kostet fast nichts. Das Verknüpfen mit den richtigen Schlüsseln — das ist die Arbeit.
Schritt 3: Das implizite Wissen der Gießer formalisieren
Die besten Trainingsdaten für KI stecken noch in den Köpfen erfahrener Mitarbeiter. Warum wird bei bestimmten Witterungsverhältnissen der Sand anders gemischt? Warum werden bestimmte Chargen manuell nachgeimpft? Dieses Wissen muss als explizites Regelwissen dokumentiert sein — bevor ein KI-Modell es lernen kann.
„Das Wissen geht nicht mit dem Mitarbeiter, wenn er das Unternehmen verlässt. Es ist bereits weg, wenn er in Rente geht — wenn niemand vorher zugehört hat."
Die stille Voraussetzung: Qualifikation als Schlüssel
Ein Mitarbeiter ohne das nötige Prozessverständnis wird die Verbindung niemals herstellen können. Nicht zwischen Roheisensorte und Schlackenmenge. Nicht zwischen Luftfeuchtigkeit und Porenbildung. Nicht zwischen dem Knarzen der Anlage und dem beginnenden Lagerschaden.
Der erfahrene Schmelzmeister mit 30 Jahren Betriebszugehörigkeit kann die Mg-Menge an der frischen Bruchkante riechen. Aber er hat nie gelernt, was ein Primärschlüssel ist. Der junge IT-Spezialist versteht Datenbankarchitektur — aber er hat noch nie eine Induktionsanlage gesehen.
„Digitalisierung in der Gießerei braucht Menschen, die beide Welten kennen. Oder Teams, die sich gegenseitig übersetzen."
Wer schaut hin — und wer hört hin?
Es gibt eine Frage, die in der Diskussion um Datenqualität fast immer fehlt: Nicht „Welche Daten haben wir?" sondern „Wer pflegt sie eigentlich?"
Nehmen wir Störungsmeldungen einer Anlage. Wer hat diese Texte zuletzt geprüft? Wer hat plausibilisiert, ob die hinterlegten Zeiten noch der Realität entsprechen? Das klassische Problem: Eine Meldung löst die nächste aus. Am Ende steht eine Liste von zwölf Alarmen — und niemand weiß mehr, was der eigentliche Auslöser war.
„Daten, die nicht gepflegt werden, veralten. Störmeldungen, die nie hinterfragt werden, lügen irgendwann."
Und dann die schleichende Veränderung: Eine Anlage deren Takt bei 15 Sekunden liegt, wandert auf 16 Sekunden, dann auf 16,5. Kein Alarm. Keine Störung. Aber summiert sich über eine Schicht zu einem Produktivitätsverlust, den niemand einer Ursache zugeordnet hat.
Das ist genau die Domäne, in der KI den Menschen strukturell übertrifft — nicht weil sie klüger ist, sondern weil sie keine Wahrnehmungsermüdung kennt. Es ist wie mit den eigenen grauen Haaren: Niemand merkt, wann aus 100 plötzlich 130 wurden, solange es nicht die einzigen 130 sind. 😊
Und eine Anlage, die zwei Jahre alt ist, hat eine Geschichte aufgebaut. Der erfahrene Instandhalter kennt den gesunden Klang seiner Maschine. Er hört das Knarzen, bevor das Lager ausfällt. Was spricht dagegen, dieses Wissen zu digitalisieren? Frequenzanalyse und akustische Anomalie-Erkennung sind heute machbar, erschwinglich und praxiserprobt.
Der Zeitrahmen: Warum drei Jahre?
Eine tragfähige Datenbasis entsteht nicht durch einen einmaligen Kraftakt, sondern durch konsequente, schrittweise Arbeit — und durch das Sammeln von Daten über einen Zeitraum, der statistisch verwertbare Muster ergibt.
- Ehrliche Datenbewertung
- Fehlende Parameter identifizieren
- Erste Sensoren installieren
- Schlüssel zwischen Systemen definieren
- Mitarbeiter qualifizieren
- Erfahrungswissen dokumentieren
- Parameter miteinander verknüpfen
- Primär-/Sekundärschlüssel etablieren
- Erste SQL-Auswertungen
- Korrelationsanalysen durchführen
- Datenlücken schließen
- Datenbasis validieren
- Zeitreihen für Trendanalysen
- Chargen-Historie für Mustererkennung
- Erstes KI-Modell trainieren
- Predictive Maintenance testen
- Qualitätsprädiktion pilotieren
- Ergebnisse validieren & skalieren
„Wer im ersten Jahr die Sensoren installiert hat, hat im dritten Jahr die Daten. Wer gewartet hat, dass die KI es von alleine richtet — der wartet noch."
Fazit: Erst das Fundament, dann das Haus
Die Entschlüsselung des menschlichen Genoms hat nicht damit begonnen, dass jemand Gesetzmäßigkeiten suchte. Es hat damit begonnen, dass man die Struktur verstand. Jahrzehnte geduldiger Grundlagenarbeit — Sequenzierung, Klassifikation, Fehlerbereinigung, Verknüpfung. Und dann, als die Struktur klar war, haben sich die Gesetzmäßigkeiten gezeigt.
Gießerei-Digitalisierung funktioniert nach demselben Prinzip. Nicht die KI erkennt zuerst die Gesetzmäßigkeiten der Gießerei. Erst wenn wir die Struktur unserer Daten verstehen — erst dann kann eine KI etwas Sinnvolles daraus machen.
Die Gießerei hat ihre eigene Doppelhelix. Wir müssen nur bereit sein, sie zu entschlüsseln.
P.S.: KI = ?
Was KI bedeuten kann — wenn das Fundament fehlt
„Merke: Wer sich nicht damit auseinandersetzt, bleibt bei KI — Künstlicher Information."
Wie KI-ready sind Ihre Produktionsdaten wirklich? Wo fehlt das Fundament in Ihrer Gießerei?