KI-gestützte Vision-Systeme

So verändert Künstliche Intelligenz die Inspektion in der Lebensmittelproduktion

Die Lebensmittelindustrie steht vor einem Umbruch: KI-gestützte Bildverarbeitung ersetzt zunehmend starre Regelwerke. Was früher „Wenn A, dann B“ hieß, wird heute durch lernende Systeme revolutioniert. Sie könnten zum Standardwerkzeug für eine effiziente und zukunftsfähige Produktion werden.

3 min
Wohlgeformt und appetitlich: Brezen, wie Konsumenten sie schätzen.

In der Lebensmittelindustrie ist Präzision keine Kür, sondern Pflicht. Fehlerhafte Packungen und Abweichungen bei Etikettierung, Gewicht oder Inhalt können zu Produktverlusten und Produktionsstillständen führen. Gleichzeitig steigen die Anforderungen: höhere Durchlaufgeschwindigkeiten, komplexere Verpackungsvorgaben, wachsende Produktvielfalt – und ein zunehmender Mangel an qualifiziertem Personal. Manuelle Inspektionsprozesse stoßen schnell an ihre Grenzen: Für Linien, auf denen viele Produkte in kurzer Zeit laufen, ist es für Bedienpersonal kaum möglich, dauerhaft fehlerfreie und reproduzierbare Entscheidungen zu treffen.

Muss aussortiert werden: ein unästhetischer Backling.

KI-gestützte Vision-Systeme eröffnen hier neue Möglichkeiten. Obwohl noch relativ neu in der Lebensmittelindustrie, setzen sie bereits Standards. Sie erkennen komplexe Fehlerbilder auch auf Hochgeschwindigkeitslinien, lassen sich auf die Bedürfnisse jedes Unternehmens und an die wachsende Produktvielfalt anpassen. Das Potenzial ist enorm: KI-gestützte Vision-Systeme könnten zum Standardwerkzeug für eine effiziente und zukunftsfähige Lebensmittelproduktion werden.

Vom regelbasierten System zur KI-gestützten Bildverarbeitung

Die klassische automatische Inspektion in der Lebensmittelindustrie arbeitet regelbasiert. Für jeden Kontrollschritt wird exakt definiert, wie ein konkretes Produkt auszusehen hat – ob etwa ein Bereich im Bild hell oder dunkel sein muss oder ob er geometrisch eine bestimmte Form einhalten muss. Trifft ein Produkt nicht genau diese Regelvorgabe, wird es automatisch aussortiert. Solche Systeme funktionieren nach dem Prinzip: Wenn A, dann B.

Das Vision-System kontrolliert die Produkte auf der Linie.

 Doch diese Systeme stoßen an ihre Grenzen, sobald die Realität komplexer wird. Abweichungen in Form, Farbe oder Struktur sind oft zu subtil oder zu vielfältig, um sie vollständig mit klassischen Parametern zu beschreiben. Für jede Produktvariante, jede Änderung an der Verpackung oder jedes neue Fehlerbild müssten neue Regeln entwickelt und getestet werden – ein hoher Aufwand, der die Systeme schnell unflexibel macht.

KI-gestützte Vision-Systeme gehen einen anderen Weg: Sie arbeiten nicht mit fest programmierten Regeln, sondern mit zuvor trainierten Modellen. Auf Basis zahlreicher Beispielbilder lernen sie, Objekte zu klassifizieren – etwa nach „gut“, „tolerierbar“ oder „ausschussreif“. Die Entscheidung wird getroffen, indem aktuelle Bilder mit einem zuvor trainierten Modell verglichen und deren Abweichung zu einem Referenzdatensatz bewertet wird. Anhand eines festgelegten Toleranzwerts wird dann entschieden, ob eine Abweichung noch akzeptabel ist oder ob ein Fehler vorliegt, der zu einer Ausschleusung der Packung führt. Der Betrieb kann festlegen, wie hoch die Übereinstimmung mit dem Modell mindestens sein muss, um als „gut“ zu gelten. In der Praxis bedeutet das zum Beispiel: Wenn ein Produkt zu 80 % mit dem angelernten Modell übereinstimmt, ist es noch in Ordnung. Fällt es darunter, wird es aussortiert.

Entscheidend sind die Qualität der Bilddaten und die Kalibrierung des KI-Modells

Stefan Korf

Im Produktionsalltag ist eine Mischung aus beiden Methoden denkbar: Während sich die Etiketten- oder Druckkontrolle meist sehr gut mit regelbasierten Methoden abbilden lässt, schließlich sind Layout und Schriftbild in der Regel konstant –, lassen sich Aufgaben wie Produktklassifikation, Portionskontrolle oder ästhetische Bewertungen nun durch KI-gestützte Systeme durchführen. Sie erkennen, ob in einer Fertigmahlzeit alle Zutaten korrekt platziert sind, ob ein Zutatenanteil zu gering ist oder ein Produkt eher klein oder groß ausfällt. Auch Unterschiede in Textur oder Farbverteilung – etwa bei Teiglingen, Fleischportionen oder Snackprodukten – lassen sich visuell bewerten, ohne dass für jede denkbare Variante ein eigener Regelkatalog notwendig ist.

Das KI-Modell wird auf Basis echter Produktionsdaten und Lichtverhältnisse trainiert.

Technologische Voraussetzungen: Wenig Infrastruktur, große Wirkung

Trotz ihres hohen Anspruchs an Präzision und Leistungsfähigkeiten lassen sich KI-gestützte Vision-Systeme mit vergleichsweise geringem Aufwand in bestehende Produktionslinien integrieren. Benötigt werden im Wesentlichen eine oder mehrere Kameras mit Einhausung, eine geeignete Beleuchtung, Basiselektrik sowie Computertechnik für die Datenverarbeitung. Die Steuerung der Systeme ist entweder direkt in die Verpackungsmaschine integriert oder erfolgt über ein separates HMI-Panel. Eine Anbindung an die Cloud-Infrastruktur erleichtert Updates am KI-Modell, ist aber nicht zwingend notwendig. Bilddaten können auch lokal gespeichert, die Modelle manuell erstellt und bei Bedarf per Speichermedium auf die Anlage übertragen werden.

Entscheidend sind die Qualität der Bilddaten und die Kalibrierung des KI-Modells. Je besser und präziser diese sind, desto einwandfreier funktioniert die spätere Fehlererkennung. Verpackungsmaschinenhersteller und Anbieter von Kennzeichnungs- und Inspektionslösungen sind die erste Anlaufstelle für eine solche Installation: Sobald ein Betrieb definiert hat, welche Prüf- und Klassifizierungsaufgaben gelöst werden sollen, können sie anhand weniger erster Bilder eine Machbarkeitsprüfung erstellen. Im nächsten Schritt wird ein maßgeschneidertes Modell ausgearbeitet und vor Ort installiert. Erst dann erfolgt das eigentliche Training des KI-Modells – auf Basis echter Produktionsdaten und Lichtverhältnisse. In vielen Fällen reichen bereits 100 bis 200 Bilder pro Klasse. Bei Hochleistungslinien kann dieser Prozess innerhalb weniger Stunden abgeschlossen sein, bei komplexeren Produktportfolios können mehrere Tage oder Wochen notwendig sein.

Stefan Korf ist Team Leader Product Management bei Multivac Marking & Inspection

 Auch nach Inbetriebnahme bleibt das System erweiterbar: Neue Produktvarianten oder geänderte Anforderungen lassen sich durch zusätzliche Bildaufnahmen und gezieltes Nachtrainieren ergänzen. Dieses Einlernen und Anpassen des KI-Modells ist heutzutage noch Aufgabe von Experten. Zwar wird an Lösungen gearbeitet, mit denen Anwender künftig selbst Modelle anpassen können. Doch diese stecken noch in den Kinderschuhen. Viele Unternehmen setzen daher bewusst auf externe Anbieter wie Multivac, um die Ergebnisqualität ihrer Vision-Systeme zu gewährleisten.

Eine Entwicklung mit großem Potential

Auch wenn KI-gestützte Vision-Systeme in der Lebensmittelindustrie bereits konkrete Mehrwerte bieten, steht ihr Einsatz vielerorts noch am Anfang. Aktuell liegt der Fokus vor allem auf der Inspektion, Klassifizierung oder Ästhetikbewertung von Produkten. Doch das Spektrum möglicher Anwendungen ist deutlich größer. In Zukunft könnten KI-Vision-Systeme auch komplexere Klassifizierungsaufgaben übernehmen – etwa die Unterscheidung und Bewertung von verschiedenen Rohfleischstücken, basierend auf Form, Farbe, Struktur und Fettanteil. Sie könnten auch anhand von visuellen Veränderungen an Produkten auf Maschinenabnutzungen oder sich anbahnende Prozessabweichungen hinweisen – eine sinnvolle Ergänzung zu bestehenden Predictive-Maintenance-Ansätzen. Derartige Szenarien werden heute von Maschinenanbietern in Zusammenarbeit mit ihren Kunden erkundet, welche ihre individuellen Anforderungen einbringen und so die Weiterentwicklung dieser Vision-Systeme mitgestalten.

Mit zunehmender Kollaboration, wachsender Akzeptanz und weiterentwickelter Technologie dürften sich KI-gestützte Vision-Systeme in den nächsten Jahren zu einem festen Bestandteil industrieller Lebensmittelproduktion entwickeln – nicht als Ersatz, sondern als sinnvolle Ergänzung für menschliche Evaluationen und bewährte technische Verfahren.