Überspringen zu Hauptinhalt

FEHLERVERMEIDUNG MIT TOLERANZANALYSEN

Wie oft im Leben liegen Theorie und Praxis mal mehr, mal weniger nah beieinander. Konstruktion und Fertigung bilden hier keine Ausnahme. Fertigungsbedingte Abweichungen vom Nenn-Maß eines Produktes sind häufig unvermeidbar – doch das Übersehen ihrer Auswirkungen auf das Gesamtsystem ist vermeidbar.

Als Teilprozess des Entwicklungsvorgangs stellt ein erfolgreiches Toleranzmanagement sicher, dass die Anforderungen an ein Produkt trotz Abweichungen erfüllt werden. Ein stimmiges Toleranzkonzept beinhaltet daher Methoden und Werkzeuge, die unter Beachtung geringer Herstellungskosten zielführend sind. Ein wichtiger Baustein im Rahmen der Entwicklung solcher Konzepte ist die Toleranzanalyse. Mit ihrer Hilfe werden Auswirkungen fertigungsbedingter Toleranzen auf die Funktion des Gesamtsystems betrachtet. Dadurch ermöglichen diese Kennwerte gleichzeitig Prognosen zur erzielbaren Produktqualität. Durch den Einsatz einer Toleranzanalyse können so bereits in der Entwicklung Handlungsbedarfe erkannt, Fehler vermieden und Kosten gesenkt werden. Damit wird deutlich, dass das Toleranzmanagement auch Teil des präventiven Qualitätsmanagements ist.

Tolerieren durch Normieren

Die Tolerierung der Einzelteile beinhaltet deren geometrische Spezifikation. Wie diese zu erfolgen hat, wird durch eine Reihe von Normen geregelt. Die zentralen Normen im europäischen und amerikanischen Wirtschaftsraum hierzu sind die DIN ISO 1101 sowie die amerikanische ASME 14.5-2009. Zwischen den beiden Standards bestehen allerdings nur geringfügige Unterschiede. Das Wissen hierüber bildet das Handwerkszeug eines jeden Konstrukteurs. Eine besondere Bedeutung haben an dieser Stelle die Gestalttoleranzen, die sich in Form- und Lagetoleranzen untergliedern. Erst durch den Einsatz dieser wird ein Bauteil hinreichend geometrisch spezifiziert. Insbesondere in Entwicklungsprojekten in Kooperation mit amerikanischen Unternehmen fällt in diesem Zusammenhang häufiger der Begriff GD&T (Geometric Dimensioning & Tolerancing). Es handelt sich um ein System zur Definition und Kommunikation technischer Toleranzen. GD&T beschreibt über eine Symbolsprache auf technischen Zeichnungen oder beim Konstruieren von Volumenkörpern (Solid Modeling) die explizite Soll-Geometrie und ihre zulässige Abweichung. Demnach gibt es Ingenieuren, Fertigungsmitarbeitern und Maschinen Informationen über den exakten Grad der Genauigkeit und Präzision aller kontrollierten Bauteile.

Naht das Ende der 2-D-Zeichnung?

Zur Übermittlung der Toleranzinformationen an die Fertigung werden klassisch 2-D-Zeichnungen eingesetzt, die auf Basis der 3-D-Modelle erstellt werden. Künftig werden 3-D-Modelle allerdings direkt mit sog. PMI (Product and Manufacturing Information) versehen. So können beispielsweise mit dem CAD-Systems Siemens PLM NX und dessen Tool PMI 3-D-Modelle nach dem internationalen ASME-Standard Y14.5-2009 mit Form- und Lagetolerierungen (GD&T) versehen werden. Auf diese Weise ist es möglich, die Zeichnungserstellung in der Kommunikation mit der Fertigung, den Kunden oder mit Lieferanten zu reduzieren oder gar gänzlich darauf zu verzichten. Dieses Optimierungspotential wollen sich beispielsweise insbesondere Automobilhersteller zu eigen machen und setzen dabei bereits jetzt in ersten Pilotprojekten auf den Einsatz von PMI.

Zwei Verfahren der Toleranzanalyse: Arithmetik vs. Statistik

Auf Basis der Tolerierungsdaten wird die Toleranzanalyse durchgeführt. Hierbei wird zwischen zwei Verfahren grundlegend unterschieden: Der arithmetischen und der statistischen Toleranzanalyse.
Die arithmetische Berechnung beruht auf einer Worst-Case-Betrachtung. Ausgehend davon, dass alle Ist-Maße der Einzelteile des Systems auf den Toleranzgrenzen liegen, erfolgt eine Verkettung bzw. Addition dieser Maße. Das Ergebnis der Berechnung stellt damit den denkbar schlechtesten Fall dar. Diese Methode der Toleranzanalyse führt daher häufig zu sehr engen und falsch definierten Toleranzen. Das führt wiederum zu hohen Herstellkosten. Dieses Verfahren sollte daher nur bei besonders funktionskritischen oder sicherheitsrelevanten Produktmerkmalen Anwendung finden.
Die sogenannte Worst-Case-Betrachtung im Rahmen der arithmetischen Toleranzanalyse ist jedoch statistisch gesehen eher unwahrscheinlich. Daher wird im Rahmen der statistischen Toleranzberechnung die Wahrscheinlichkeit der Abweichung der Ist-Maße von den Soll-Maßen anhand statistischer Methoden betrachtet. Die Ergebnisse dieser Berechnung bilden die Realität wesentlicher besser ab und stellen damit die Grundlage für optimale Toleranzkonzepte dar. Diese entstehen selten auf Basis einer einmalig durchgeführten Toleranzrechnung, vielmehr werden auf Basis der gewonnenen Analysedaten Konzepte weiter durchdacht und verbessert. In mehreren Adaptionsschleifen wird schließlich das optimale Ergebnis ermittelt.
Die beschriebenen Grundlagen und Vorgehensweisen bilden einzelne Bausteine des umfassenden Toleranzmanagements. Wird es erfolgreich eingesetzt, unterstützt es bereits im Vorfeld die qualitative und kostenoptimierte Absicherung von Produkten.

Ihr invenio Academy-Team!

An den Anfang scrollen