Belastbarer
Umgang mit technischen
Unsicherheiten
Statistik,
RAMS
& Qualitätsmanagement
Sitemap
Statistische
Prozesskontrolle, SPC
Dies
ist die
Wissensseite zum Thema SPC
.
Die Hauptadressaten
sind Unternehmen, die das erste Mal geschäftsmässig
mit dem Thema Statistische Prozesskontrolle konfrontiert werden. Diese
Seite will ein grundsätzliches Gefühl dafür vermitteln, auf was man
sich bei Statistischer Prozesskontrolle ggfs. einlässt.
Der Begriff kommt aus dem Englischen und meint "Statistical Process
Control", was zumeist übersetzt wird mit "Statistische
Prozesskontrolle". Alternative Übersetzungsvarianten sind, geordnet
nach Häufigkeit:
- SPC
- Statistische Prozesskontrolle
- Statistische Prozessregelung
- Statistische Prozesslenkung
Statistische
Prozesskontrolle ist die treffendste Übersetzung, da in der Technik der
Begriff kontrollieren auch Bedeutungen wie regeln, steuern,
unter Kontrolle haben, usw.
vereint.
Die folgende Tabelle listet einige
Ressourcen zum Thema SPC auf, die an spezifische Personenkreise
gerichtet sind.
Nr.
|
Ressource
|
Beschreibung
|
1.
|
SPC
Projekt Leitfaden
kostenlos-auf-Anfrage |
Handlungsempfehlungen
für Unternehmen, die zum ersten Mal mit
Statistischer Prozesskontrolle konfrontiert werden.
8 Seiten. Das gesamte Kapitel 3 des SPC Skripts |
2.
|
SPC
für Entscheider
kostenlos-auf-Anfrage
|
Statistische
Prozesskontrolle kurz und knapp für Entscheider.
Ohne Mathematik. 3 Seiten. Das gesamte Kapitel 5 des SPC Skripts |
3.
|
SPC
für Ingenieure
kostenlos-auf-Anfrage
|
SPC kurz
und knapp für Prozessingenieure. Die ersten 7 Seiten des Kapitels 6 des
SPC Skripts. Sehr wenig Mathematik.
|
4.
|
SPC Skript
|
450 seitiges pdf mit 44 Excel
Vorlagen. Alle Inhalte und Beispiele sind ungeschönt,
und geben daher die SPC Wirklichkeit wieder.
Die ersten 20 Seiten können kostenlos heruntergeladen werden.
10 grossformatige Bilder geben Einblicke in die Excel Vorlagen.
|
5.
|
SPC
Beratung
|
Beratungsdienstleistung zum
Thema Statistische Prozesskontrolle.
Sie beschreiben mir Ihre Situation, ich gebe ihnen meine Einschätzung
in Klartext,
und mache Ihnen Handlungsvorschläge, ggfs. in Schriftform. Sie müssen
keine vertraulichen Daten preisgeben. Als Videokonferenz.
|
Statistische
Prozesskontrolle kommt sehr oft als QM Mode daher,
allerdings ist sie in keiner Weise besser ist als "klassische"
Prozessüberwachung. SPC kann
unter bestimmten technischen und wirtschaftlichen Bedingungen die
effizienteste (und damit anzustrebende) Prozessüberwachungsform sein. Kann, wohlgemerkt.
- Motivationsgrund für SPC ist,
Ruhe hineinzubringen in gut ausgereifte Prozesse.
- Nur in seltenen Fällen ist es
sinnvoll, wenn Statistische Prozesskontrolle Bestandteil von
Anforderungsspezifikationen gegenüber Lieferanten ist, also die Methode
SPC an sich als Forderung formuliert wird. Erstens kann der Lieferant
die technologische Situation naturgemäss besser einschätzen, zweitens
zeigt die praktische Erfahrung, dass SPC gerade dann gefordert wird,
wenn der Kunde nicht weiss wovon er redet.
- Im
deutschsprachigen Raum besteht fast flächendeckend eine etablierte SPC
Pseudowissenschaft, verursacht durch einen bestimmten
SPC-Softwarehersteller. Charakteristisch ist die grundsätzlich
verkehrte Herangehensweise an Daten und der laienhafte Umgang mit
statistischen Methoden. Der Aufbau der Software lädt den weniger
sattelfesten Anwender geradezu dazu ein, massenhaft Ergebnisse zu
produzieren, die ohne Sinn und Verstand sind.
- Statistische Prozesskontrolle kann
nur dann funktionieren, wenn
- die Masstoleranzen technologisch
wenig
anspruchsvoll sind. Bei klassischer Prozessüberwachung würde man das
Mass evtl. nur indirekt oder überhaupt nicht überwachen.
Damit nur keine Missverständnisse aufkommen: Statistische
Prozesskontrolle funktioniert nicht
bei technologisch anspruchsvollen Massen!
- Statistische
Prozesskontrolle muss
von Anfang an in Prozesse hineinentwickelt werden.
Nachträgliche Umstellung auf SPC wird mit hoher Sicherheit scheitern,
weil im Regelfall keine Prozesstechnologie am Markt verfügbar ist, mit
der man die damit einher gehenden Massanforderungen erfüllen
könnte.
- Der Unterschied im Ausschussanteil
zwischen einem sehr guten klassischen Prozess, und einem gerade noch
SPC-tauglichen Prozess liegt bei Faktor 40 (siehe Tabelle weiter
unten).
Wer glaubt, man könne klassische Prozesse dahin bringen, sollte sich
fragen, warum dann bisher so extrem viel Potential verschenkt wurde. So
ein Prozess wäre ideal gewesen, um mit elementaren QM Methoden sehr
viel herauszuholen.
- Das
Thema SPC hat gar nichts mit Exzellenz oder dem Reifegrad eines
Unternehmens zu tun.
- Das
Vorhandensein von Statistischer Prozesskontrolle
lässt im Grunde nur auf die hergestellte Produktart schliessen, oder
auf
ausgereifte Prozesse, deren Verlagerung in Niedriglohnländer
absehbar ist.
- Das was heute allgemein unter Statistischer Prozesskontrolle
verstanden wird (cpk > 1,33, siehe weiter unten) lässt
sich nur bei Prozessen
verwirklichen, die
- vollautomatisch sind, also keine
manuellen Prozessschritte enthalten
- in einen der beiden folgenden
Bereiche fallen:
- Zerspanende Bearbeitung,
insbesondere Metall
Das
Grundproblem
Wie stellt man sicher, dass ein
Produktionsprozess dauerhaft
genau die Qualität produziert, die man möchte? Der quantitative Zugang
dazu sind die Produktmasse, insbesondere deren Toleranzen. Solange alle
(wichtigen) Toleranzen eingehalten werden, entspricht die Qualität der
hergestellten Produkte der Erwartung.
- Am einfachsten gelingt dies mit
Prozessen, die über eine vollautomatische 100% Prüfung verfügen. Diese
kann dem Prozess nachgelagert, oder in bestimmte Prozessschritte
integriert sein.
- Dabei sollten die Massgrenzen
etwas enger als die
Toleranzgrenzen gewählt werden
und zwar um so viel, wie Technologiestand, Unternehmenswissen und
Wirtschaftlichkeit es erlauben.
Wann immer
technisch und
wirtschaftlich möglich, sollte vollautomatische 100% Prüfung als
Prozessüberwachungsform angestrebt werden. Prozesse sollten also soweit
es geht so ausgelegt werden, dass jedes
produzierte Teil automatisch
vermessen wird.
- Jedes Teil deshalb, weil (nur)
dadurch eine explizite Qualitätsaussage für alle Teile getroffen werden
kann, und
- automatisch deshalb, damit die
Messweise und die Messkriterien immer dieselben bleiben.
Das bisher
Gesagte ist universell
gültig und zeitlos. Vollautomatische 100% Kontrolle mit enger gefassten
Grenzen sind der Statistischen Prozesskontrolle in jedem Fall
überlegen.
Nun gibt und gab es
schon immer Produktionsprozesse, bei denen man aus technischen Gründen
nicht jedes einzelne produzierte
Teil überprüfen kann, oder aus wirtschaftlichen Gründen nicht will. Welche Möglichkeiten hat man jetzt, um
hinreichend sicherzustellen,
dass alle ausgelieferten Teile, insbesondere die
ungeprüften, innerhalb
Toleranz liegen?
Man nimmt bei
laufendem Prozess ab
und zu ein Teil heraus und vermisst es. Je nachdem wie das Messergebnis
ausfällt, werden Entscheidungen hinsichtlich des Prozesses getroffen.
Die genaue Vorgehensweise kann sehr unterschiedlich sein, und hängt von
der Unternehmenskultur und den Marktanforderungen ab. Es ist durchaus
möglich, dabei ganz ohne Mathematik auszukommen, und rein auf die
Erfahrung und Einschätzung von Prozessexperten zu setzen. Das kommt
häufiger vor als viele denken, und ist nicht etwa altmodisch, sondern
schlicht eine wirtschaftliche Implementierung der Sicherstellung von
Kundenforderungen. Wo dies nicht ausreicht, müssen quantitative
Verfahren bemüht werden, doch damit sind wir noch lange nicht bei
Statistischer Prozesskontrolle. Diese Verfahren gehen ungefähr so:
- Messe jede Stunde 2 Teile.
- Wenn beide innerhalb einer
festgelegten Spanne liegen (die kleiner ist als die Toleranzbreite),
dann unternehme nichts Weiteres.
- Wenn ein Teil ausserhalb der
Spanne liegt, dann entnehme 2 weitere Teile (3 und 4)
- Wenn 3 und 4 beide
innerhalb liegen, dann ...
- Wenn eines ausserhalb
......, dann .....
- Wenn beide Teile ausserhalb der
Spanne liegen, dann stoppe den Prozess und rufe den Meister.
Obwohl diese
Vorgehensweise nach Statistischer Prozesskontrolle anmutet, ist sie es
nicht, weil das statistische Fundament fehlt, oder zumindest
nicht ermittelt wurde.
Meistens wurden solche Verfahren in der Vergangenheit von
Prozesskennern entwickelt, seitdem nie hinterfragt oder gar validiert,
doch sie haben sich in der Praxis offenbar bewährt. Auch das ist nicht
etwa altmodisch, sondern wiederum eine wirtschaftliche Implementierung
der Sicherstellung von Kundenforderungen.
Der Nachteil solcher Verfahren ist, dass sie nur im eigenen Unternehmen
existieren, und von anderen Teilnehmern in der Lieferkette "ad hoc"
oder vom Himmel heruntergefallen vorkommen. Das betrifft vor allem
die Frage, wie sicher solche Verfahren sind, insbesondere wie gut und
wie schnell sie Veränderungen im Prozess offenbaren.
Daher erscheint es naheliegend, Methoden zu verwenden, die von
jedermann nachvollzogen werden können. Hierfür sind statistische
Methoden geradezu prädestiniert, denn Mathematik ist universell, und
damit jederzeit durch Dritte nachvollziehbar.
Um von dieser Stelle aus zur Statistischen Prozesskontrolle zu kommen,
brauchen wir 2 grundlegende Eigenschaften:
- Es ist vorteilhaft, mit
Mittelwerten und Standardabweichungen von Stichproben zu
arbeiten, denn für diese beiden Parameter existieren unzählige
Verfahren, die quantitative Rückschlüsse auf die zugrundeliegenden
Einzel-Messwerte ermöglichen.
- Die meisten (im
Produktionskontext nahezu alle) statistischen Verfahren benötigen noch
eine weitere Annahme, damit sie funktionieren, nämlich die Verteilungsform der Messwerte.
Der erste
Punkt dürfte für die meisten Ingenieure naheliegend erscheinen, und
braucht daher nicht weiter erläutert werden. Man zieht Stichproben, und berechnet
daraus Mittelwert und Standardabweichung. Technische Rechenhilfen gibt
es dafür zuhauf.
Der zweite
Punkt ist in der Theorie viel schwieriger, erweist sich im
betrieblichen Alltag jedoch als äusserst einfach:
Die Verteilungsform ergibt sich
nämlich ausschliesslich und
eindeutig aus der Natur des Prozessmasses, und dafür kommen im
produktionstechnischen Umfeld überhaupt nur 3
verschiedene Möglichkeiten in Betracht, wovon die
Normalverteilung die bei weitem häufigste ist. Mit anderen Worten:
- Kennt
man die technischen Eigenschaften des Prozessmasses, dann ergibt sich
daraus zwangsläufig, also ohne Nachzumessen, die Natur der
Verteilungsfunktion der Messwerte.
- Im Bereich Produktion kommen lediglich 3 Verteilungsfunktionen in
Betracht.
- Am häufigsten kommt die
Normalverteilung vor.
- Das gilt sogar für zeitlich
veränderliche Prozesse, allerdings muss man dann spezieller. Im Skript SPC
wird genauer darauf eingegangen.
Auf
statistischer Ebene wirkt die Kenntnis der Verteilungsfunktionsform wie
ein Nachbrenner:
- Durch die Kenntnis der Verteilungsfunktionsform lässt sich mit relativ wenigen Messwerten
bereits relativ viel über die Gesamtheit der produzierten Teile
aussagen.
Das über die
Verteilungsfunktionsform Gesagte ist für die Statistische
Prozesskontrolle so fundamental, dass er hier noch einmal mit anderen
Worten wiederholt wird:
Die Form der
Verteilungsfunktion ergibt sich allein aus der Natur des Prozessmasses.
Welche das ist, lässt sich ohne akademisches Wissen (z.B. mit
Fragenliste) herausfinden.
Es
kommen nur 3 Möglichkeiten in Betracht, wobei die Normalverteilung am
häufigsten ist.
Durch
Kenntnis der Verteilungsfunktionsform bekommt man viel Information mit
wenigen Messwerten.
Warum ist das so?
Hier muss man zunächst festhalten, dass Verteilungsfunktionen für die
meisten Ingenieure "nur" Modelle zur möglichst guten Beschreibung von
Daten sind (künstliche Verteilungsfunktion). Man nennt diese
Herangehensweise Heuristik. Doch Verteilungsfunktionen verkörpern viel
mehr. Sie sind nämlich eine direkte Folge aus der
"Entstehungsgeschichte" oder dem "Entstehungsmechanismus" der
Messwerte. Verteilungsfunktionen
beschreiben die dahinter stehende Physik. Meistens handelt es sich um
Mechanismen, die in verschiedensten Bereichen der Natur anzutreffen
sind (natürliche Verteilungsfunktion).
Davon
abweichend gibt es auch Verteilungsfunktionen, die "erfunden" wurden,
um spezielle statistische Berechnungen zu ermöglichen.
Einen Überblick darüber, welche Verteilungsfunktionen natürlich oder
künstlich sind, findet man auf der Seite Formparameter.
Die Beziehungen der Verteilungsfunktionen untereinander werden auf der
Seite Verteilungsfunktionen-Beziehungen beschrieben
Wir nehmen im Weiteren der Einfachheit halber Normalverteilung an.
In der
Statistischen Prozesskontrolle gibt es einen allgemeingültigen
Massstab, mit dem man die Prozessqualität misst.
Dieser so genannte cpk Wert, insbesondere wie er berechnet
wird, ist äusserst seltsam, weshalb an dieser Stelle nicht näher darauf
eingegangen, und stattdessen auf das SPC
Skript verwiesen wird. Der cpk ist extrem nichtlinear, und
vom
Wertebereich willkürlich, sodass man mit ihm weder rechnen, noch
Vergleiche anstellen kann. Der praktisch relevante Wertebereich beträgt
[1,33 ... 2,00].
- cpk = 1,33 --> der Prozess
(genauer gesagt das betreffende Mass) ist für Statistische
Prozesskontrolle gerade noch geeignet. 1,33 ist die Mindestanforderung
für SPC.
- cpk = 2,00 --> das betreffende Mass wird äusserst
gut beherrscht.
Die folgenden
Bilder
veranschaulichen, was sich dahinter verbirgt. Die horizontale Achse
kann als Zeitachse aufgefasst werden; mit fortschreitender Zeit werden
immer mehr Teile vermessen. Zuerst betrachten wir ein Prozessmass, das
einen cpk Wert von 1,33
aufweist.
Wer sich das
erste Mal mit
Statistischer Prozesskontrolle beschäftigt, sollte hier sehr genau
hinsehen, und das wirklich einmal sacken lassen: Es sind 16.000
Messwerte abgebildet, wobei nur ein einziger
ausserhalb einer Toleranzgrenze liegt (symbolisch vergrössert, auf OTG
liegend dargestellt).
- Falls der Prozess nur ein
einziges SPC-Mass hat, dann zeigt das Bild einen Prozess, bei dem von
16.000 Teilen lediglich eines Ausschuss ist.
Diese Aussage ist pro Mass zu
verstehen. In der Regel hat man mehrere SPC Masse.
- Ein Prozess mit z.B. 10 SPC
Massen, die alle einen cpk Wert von 1,33 aufweisen, würde
bei 16.000
produzierten Teilen 10 Ausschussteile produzieren.
Nochmal: Bei
einem cpk Wert von 1,33
reden wir gerade einmal vom Einstieg in die Statistische
Prozesskontrolle!
Prozesse mit einem cpk Wert von 1,33 oder
grösser werden in der SPC als
fähig bezeichnet. Nur solche Prozesse sind geeignet für die
Statistische Prozesskontrolle.
Das nächste Bild zeigt
ein
Prozessmass mit einem cpk Wert von 1,66.
Dieser Wert dürfte in so
genannten Qualitätsvereinbarungen am häufigsten vorkommen, insbesondere
in solchen, wo keine Seite weiss wovon eigentlich die Rede ist. Man
sieht
deutlich, wie von den 16.000 Messwerten kein einziger auch nur in der
Nähe einer Toleranzgrenze liegt. Statt 16.000 müsste man 1.700.000
Teile, also gut 100 mal mehr produzieren, um ein Ausschussteil zu
bekommen. Zwischen 1,33 und 1,66 liegen also Welten!
Der Vollständigkeit halber sollen noch die entsprechenden Verhältnisse
bei cpk = 2,00 genannt werden: Dann müsste man 500.000.000
Teile
produzieren, um endlich mal ein Ausschussteil zu finden. Das sind etwa
Faktor 300 mehr als bei cpk = 1,66, also auch zwischen 1,66
und 2,00
liegen wieder Welten!
Das nächste Bild zeigt die Verhältnisse für 1,33 und 1,66 gemeinsam in
einer anderen Darstellung.
Die
horizontale Achse verkörpert nun
die Messwerte, und die senkrechte Achse ist die relative Häufigkeit.
Beide Kurven sind massstabsgerecht; die 1,33 Kurve ist genau 4, und die
1,66 Kurve genau 5 Teilstriche hoch. Für die Breite der Kurven lässt
sich dasselbe sagen: Die 1,66 Kurve ist genau 4, und die 1,33
Kurve genau 5 Einheiten breit.
Es ist kein Zufall, dass 1,66/1,33 genau diesem 5/4 Verhältnis
entspricht.
Die bisherigen Betrachtungen gehen von einem Prozess aus, der genau in
der Toleranzmitte liegt. Dadurch werden Darstellung und
Beschreibung deutlich einfacher, ohne nennenswerte Beschränkung der
Allgemeinheit. Bei aussermittigen Prozessen ergäbe sich bei selben cpk
Werten sogar noch weniger Ausschuss (bestenfalls die Hälfte).
In einfachen Worten sagt der cpk Wert also 2 Dinge
gleichzeitig aus:
- wie "eng" die einzelnen
Messwerte beieinanderliegen (Streuung)
- wieviel "Platz" zwischen der
Messwertewolke und der näher gelegenen Toleranzgrenze ist (Lage)
Je weiter der
Prozess ausserhalb der
Toleranzmitte liegt, desto kleiner muss die Streuung sein, damit der cpk
Wert sich nicht verschlechtert.
Warum liegt die Grenze für fähige Prozesse
gerade bei cpk = 1,33?
Einen sachlichen Grund für eine feste Grenze gibt es nicht. Mann kann
aber allgemein folgendes sagen: Je grösser der cpk Wert, desto weniger
Aufwand hat man bei praktisch laufender Statistischer Prozesskontrolle.
Je grösser der cpk Wert, desto mehr "Platz für die
Messwerte, sich im
Toleranzband auszutoben", ohne dass eine Toleranzgrenze verletzt wird.
Etwas präziser formuliert: Je grösser der cpk Wert, desto
weniger
Prüfaufwand bei gleichbleibender statistischer Sicherheit. Je nachdem
wie gross der Prüfaufwand ausfällt, würde -rein praktisch- nichts
dagegen sprechen, bereits bei niedrigeren cpk Werten SPC zu
betreiben.
Das Problem liegt vielmehr darin, dass sich die cpk >
1,33 Forderung
überall etabliert hat, und Prozesse mit niedrigeren cpk
Werten (und
damit verbunden höheren Ausschussanteilen) in der SPC Praxis schlicht
nicht akzeptiert werden.
Warum gerade 0,33 Schritte?
Der cpk
Wert misst die Entfernung des Mittelwertes zur näher gelegenen
Toleranzgrenze. Dabei
entspricht der dimensionslose Wert 0,33 einer Standardabweichung. Bei
cpk = 1,33 befindet sich der Prozessmittelwert demnach Im
Abstand von 4
Standardabweichungen zur näher gelegenen Toleranzgrenze. Die
Betrachtungen weiter oben zeigen, dass das 0,33 Raster extrem grob ist.
- Der
cpk ist einem bestimmten historischen Prozess entsprungen (wird im SPC Skript genau erklärt).
Er erscheint auf den ersten Blick anschaulich, erweist sich allerdings
rechnerisch als unpraktisch und willkürlich. Er ist
hochgradig nichtlinear; weder kann man mit ihm gut rechnen, noch kann
man ihn zu Vergleichszwecken verwenden. Man kann
lediglich sagen, je grösser, desto besser.
Praktisch relevante cpk Werte liegen im Bereich zwischen 1
und 2. SPC
fähige Prozessmasse haben cpk Werte im Bereich 1,33 bis 2.
Beachte,
dass 1,33 erst der Einstieg, 2,00 dagegen bereits extrem gut ist.
Die folgende Tabelle stellt das bisher Gesagte in einem erweiterten
Bereich zusammengefasst dar. Bei der Angabe des Ausschussanteils wird
folgendes vorausgesetzt:
- Es handelt sich nur um ein
einziges Mass; bei mehr Massen muss der Ausschussanteil mit der Anzahl
Masse Multipliziert werden
- Der
Prozess befindet sich in der Toleranzmitte. Bei aussermittigen
Prozessen kann sich der Ausschussanteil (bei gleichem cpk)
um maximal Faktor 2 erhöhen.
cpk-Wert
|
Ausschussanteil
|
Anmerkungen
|
0,33
|
32%
|
|
0,66
|
4,6%
|
In diesem
Bereich liegen die allermeisten klassisch überwachten Prozesse.
Prozesse mit manuellen Arbeitsschritten kommen nur schwer auf unter 1%.
|
1
|
0,26%
|
1,33
|
0,0064% = 64 ppm
|
Ab hier beginnt SPC.
Der Unterschied im Ausschussanteil zwischen 1,00 und 1,33 liegt bei
Faktor 40. 1,00 ist bereits ein sehr guter klassischer Prozess, doch
der Einstieg in SPC erfordert eine Verbesserung um Faktor 40. Wer
glaubt, man könne klassische Prozesse dahin bringen, sollte sich einmal
fragen, warum bisher so viel Potential verschenkt wurde.
|
1,66
|
0,56 ppm
|
Sehr guter Prozess.
Weitere evtl. Verbesserung kaum sinnvoll begründbar.
|
2,00
|
0,002 ppm
= 2 / 109
|
2,00 kann man als Obergrenze
ansehen. Darüber hinaus ist es nur noch Spielerei.
|
2,33
|
0,000.0026 ppm
= 2,6 / 1012 |
Wer mit
solchen Werten als Forderung konfrontiert wird, hat es
höchstwahrscheinlich mit SPC- Bullshit
zu tun.
|
2,66
|
0,000.000.0014 ppm =1,4 / 1015
|
Eins hoch
|
5 Veranschaulichung der Statistischen
Prozesskontrolle:
Messsystem Analyse (MSA)
|
Eins runter
|
Prozessmasse,
die mittels
Statistischer Prozesskontrolle überwacht werden, müssen mit dafür
geeigneten Messmitteln gemessen werden. Die Notwendigkeit dieser so
genannten fähigen Messmittel wird in SPC
Literatur und betrieblichen Verfahrensanweisungen stark
überbewertet. Hierzu folgende Kernaussage:
Hauptzweck von fähigen SPC Messmitteln ist
nicht, möglichst genau zu messen, sondern
(insbesondere schleichende) Veränderungen des Produktionsprozesses
möglichst sicher zu erkennen.
Die beiden Dinge haben
nicht viel miteinander zu tun.
Im SPC Skript wird anhand von Beispielen gezeigt, dass ein im SPC
Sinne fähiges Messmittel weniger geeignet sein kann als ein extrem
unfähiges, d.h., letzteres kann durchaus in der Lage sein,
Prozessänderungen frühzeitiger zu erkennen. Das soll nicht heissen,
dass fähige Messmittel nicht erstrebenswert sind, sondern wie eingangs
bereits gesagt, die Eigenschaft "fähig" nicht zu hoch bewertet werden
sollte. Der nächste Kernsatz weiter unten beschreibt, wie man damit
praktisch umgehen sollte.
Die Fähigkeit (bzw. der Grad der Fähigkeit) von Messmitteln für die
Statistische Prozesskontrolle wird anhand von 2 speziellen Verfahren
ermittelt. In einfachen Worten kann
man es so beschreiben:
- Messung der Messgenauigkeit des Messmittels "an sich" unter
idealisierten Bedingungen (Verfahren 1)
- Messung der Messgenauigkeit des Messmittels unter praktischen
Bedingungen (Verfahren 2 oder 3)
Den Ablauf einer Messsystemanalyse kann man so beschreiben:
a) Das Messmittel muss eine Auflösung von mindestens
20 aufweisen, d.h., in das Toleranzband müssen mindestens
20
unterscheidbare Stufen passen. Wenn dies erfüllt ist, dann:
b) Das Verfahren 1 muss einen sog. cgk
Wert von mindestens 1,33 ergeben. Wenn das erfüllt ist, dann:
c) Entscheidung entweder für Verfahren 2 oder 3
d) Das Verfahren 2 oder 3 muss einen sog. Gauge
R&R Wert von idealerweise < 10%, mindestens jedoch < 30%
ergeben.
Besteht das Messmittel die Messsystemanalyse, dann wird es als fähig bzw. bedingt
fähig
eingestuft. Diese Bezeichnungen sind etwas irreführend, denn wie zuvor
schon erwähnt kann man auch mit nicht-fähigen
Messmitteln gut SPC
betreiben. Ausserdem existieren keine allgemein anerkannten
Verfahrensweisen, was bei bedingt fähigen Messmitteln evtl. zu beachten
ist, d.h., der "konforme" Anwender wird auch bedingt fähige Messmittel
uneingeschränkt verwenden.
Eine sinnvolle praktische
Herangehensweise sieht so aus:
Beschaffe das unter den
gegebenen wirtschaftlichen und technologischen Randbedingungen
beste beschaffbare
Messmittel, ermittle den Istzustand bez. der Kriterien der MSA,
aber bewerte es
anhand der rohen Messdaten und wende es entsprechend an.
Die Kriterien der MSA (obige Punkte a), b) und d)) sollten primär als
Informationsquelle über die Messmittel verstanden werden, und weniger
als Entscheidungsgrundlage für die (Nicht-) Anwendung. Dazu folgende
Erläuterungen:
Zu a)
Die Forderung "Auflösung mindestens 20" ist sinnvoll, aber nicht
essentiell. Sie hat absolut nichts mit Messgenauigkeit zu tun, sondern
ist allein einer Unzulänglichkeit des Verfahrens 1 geschuldet.
Auflösungen von u. U. deutlich kleiner 20 sind im praktischen SPC
Betrieb im Endeffekt nicht nachteilig. Die Begründung dafür ist etwas
umfangreich. Dies, und insbesondere auch der Umgang mit derartigen
Situationen, wird im SPC Skript genauer erklärt bzw. durchgerechnet.
Zu b)
Die Forderung cgk > 1,33 ist ebenfalls sinnvoll,
allerdings
ebenfalls nicht essentiell. Da dieses Verfahren verschieden geartete
Messabweichungen mit einer einzigen Kenngrösse ausdrückt, kommt es sehr
darauf an, wie sich das Messmittel im Detail verhält. Die folgenden
drei Bilder zeigen beispielhaft, was sich dahinter verbergen
kann, und die Vergleichstabelle darunter birgt Überraschungen.
Messreihe
|
Messmittel
ist laut MSA ...
|
Messmittel
ist im praktischen Einsatz ... |
A:
cgk = 1,33
|
fähig
|
...
das Schlechteste von Dreien
|
B:
cgk = 0,00
|
unbrauchbar
|
...
ein sehr gutes Messmittel: Sehr geringe
Streuung, und mit einem bekannten Offset lässt es sich messtechnisch
gut leben. |
C:
cgk = 0,33 |
unbrauchbar
|
...
das Beste von Dreien: Zwar sehr hohe
Streuung aufgrund niedriger Auflösung, doch gerade deswegen wird man
Änderungen im Prozess eher schneller erkennen.
|
zu c)
Wenn der Messprozess die eigentliche Messung wesentlich beeinflusst,
dann Verfahren 2, andernfalls Verfahren 3.
Diese Entscheidung muss vor der MSA aufgrund technischer Überlegungen
getroffen werden. Im Zweifelsfall das (aufwendigere) Verfahren 2.
Zu d)
Auch die Forderung Gauge R&R < 10%, mindestens jedoch < 30%
ist sinnvoll, jedoch ebenfalls nicht essentiell. Genau wie bei b) kommt
es sehr darauf an, wie sich das Messmittel im Detail verhält.
Zu Verfahren 2 und 3 gibt
es als "moderne Variante" das ANOVA
Verfahren. Dieses ist deutlich robuster als das Klassische Verfahren,
weil es mathematisch begründet ist (und daher die
Gesamtsituation absolut richtig abbildet), im Gegensatz zum klassischen
Verfahren, welches aus historischen Gründen mit dem Anspruch der
Einfachheit entwickelt wurde. Das ANOVA Verfahren lässt sich im
Gegensatz zum klassischen Verfahren grundsätzlich nicht "austricksen",
d.h. es bildet Abweichungen vom idealen Messprozesszustand in jedem
fall
richtig ab.
Aus
heutiger Sicht, also durch die unbeschränkte Verfügbarkeit von
Auswertesoftware, spricht nichts mehr für das klassische Verfahren 2
(und auch 3). Das ANOVA Verfahren ist in jedem Fall vorzuziehen.
Die
folgenden beiden Bilder belegen dies beispielhaft:
2 Prüfer, Rot und Blau, haben dieselben 10 Teile jeweils
zweimal vermessen.
Ein Messwertpaar besteht
z.B. aus den beiden Messungen des Prüfers Rot an Teil Nr.1.
Die Streuung innerhalb der
Messwertpaare ist meistens so klein, dass sie im Diagramm wie eine
einzige Messung aussehen.....
|
|
Bei Teil
Nr. 8 ist im Zusammenhang mit Prüfer Rot etwas Besonderes passiert.
Würde man sich auf das klassische Verfahren 2 verlassen, wäre die
Entscheidung gemäss GRR 10% "gerade noch fähig".
Das ANOVA Verfahren dagegen "sieht" die Ungereimtheit und zeigt dies
mit GRR 34% (nicht fähig) gebührend an.
Wie beim Verfahren 1 sollten in jedem Fall die Rohdaten gesichtet und
ggfs. bewertet werden.
|
|
Bei den
Teilen Nr.1 und Nr.2
messen beide Prüfer zwar wie gewohnt sehr wiederholgenau, kommen jedoch
auf sehr unterschiedliche Ergebnisse.
Würde man sich auf das
klassische Verfahren 2 verlassen, wäre die Entscheidung gemäss GRR 7%
"fähig".
Für das ANOVA Verfahren dagegen sind die Ungereimtheiten
"unübersehbar", und es schlägt mit GRR 63% (nicht fähig) deutlich
Alarm.
Wie beim Verfahren 1 sollten in jedem Fall die Rohdaten gesichtet und
ggfs. bewertet werden.
|
Der Titel
deutet bereits an, dass Vieles, was als Statistische Prozesskontrolle
daherkommt, in Wirklichkeit keine SPC ist, sondern Show Program for
Customer. So
witzig es klingt, so gravierend ist das Problem, das damit einher geht.
Unternehmen, die sich zu SPC haben nötigen lassen, leiden unter
Reibungsverlusten, weil deren Show Program keinerlei Nutzen hat. Der
Knackpunkt liegt bei Control,
was in diesem Kontext Regeln, Steuern, Kontrollieren, bedeutet.
Unechte bzw. vorgetäuschte SPC erkennt man
- sofort
daran, dass Prozessergebnisse, sofern sie überhaupt aktuell gehalten
werden, lediglich zur Ansicht dargestellt werden, und der Prozesslenker
genau nichts daraus ableitet.
Das heisst, es existiert kein gelebtes Verfahren, mit dem aus aktuellen
Prozessergebnissen zeitnahe Prozessänderungen abgeleitet und
durchgeführt werden.
- nach
genauerem Hinsehen daran, dass die Eingriffsgrenzen, sofern überhaupt
ermittelt, anhand der Toleranzgrenzen festgelegt worden sind. Warum
dies verkehrt ist, wird weiter unten erklärt.
Das zentrale
Werkzeug zur Darstellung der aktuellen Prozessqualität ist die
Regelkarte. Von den vielen verschiedenen Regelkartentypen, die in der
Literatur durchgekaut werden, gibt es genau eine Wesentliche, nämlich
die xquer / s Karte. Diese ist 1. zeitgemäss, und 2. deckt
sie fast alle Fälle ab. Alle anderen Regelkartentypen sind entweder
Ausnahmen, oder veraltet. Die
sehr populäre Bezeichnung Shewhart Karte hat leider keine einheitliche
Bedeutung, und sollte daher nicht verwendet werden. Die folgenden
beiden Bilder zeigen eine für didaktische Zwecke modifizierte xquer
/ s Karte mit Daten eines SPC Masses. Dargestellt sind Mittelwerte von
Stichproben (xquer) und Standardabweichungen von denselben
Stichproben (s).
- Die xquer
Karte zeigt aus didaktischen Gründen die Toleranzgrenzen (OTG, UTG).
Normalerweise werden diese nicht dargestellt, da sie bei echter SPC
keine Rolle spielen (siehe übernächsten Punkt).
- Die Sogenannten Eingriffsgrenzen
(OEG, UEG) liegen (deutlich) innerhalb der Toleranzgrenzen, und werden
alleine aufgrund statistischer Eigenschaften des Prozesses festgelegt.
Die Toleranzgrenzen spielen für die Eingriffsgrenzen keine Rolle,
denn:
- Festgehalten
werden nur die Mittelwerte von Stichproben, nicht deren Einzelwerte.
Eine Toleranzgrenzenverletzung durch Einzelwerte wäre zulässig, solange
der Stichprobenmittelwert innerhalb der Eingriffsgrenzen bleibt. Dieses
Szenario ist allerdings äusserst unwahrscheinlich, und wird nur aus
didaktischen Gründen erwähnt.
- Die
grundsätzliche Einhaltung der Toleranzgrenzen (genauer gesagt, deren
Einhaltung mit Leichtigkeit) wurde bereits bei der
Prozessfähigkeitsanalyse nachgewiesen. Bei Statistischer
Prozesskontrolle sind die Toleranzgrenzen ohne Bedeutung, stattdessen
ist man daran interessiert, Prozessänderungen möglichst frühzeitig zu
erkennen, und zeitnah entgegenzuwirken. Dies alles findet weit
innerhalb der Toleranzgrenzen statt.
- Die Eingriffsgrenzen
verkörpern die so genannte Eingriffswahrscheinlichkeit, die meistens zu
1% festgelegt wird.
Dazu gleich zwei grundlegende
Kernaussagen:
- Die
Eingriffswahrscheinlichkeit ist diejenige Wahrscheinlichkeit, mit der
fälschlicherweise in den (völlig intakten) Prozess eingegriffen wird = Wahrscheinlichkeit für
falschen Alarm (~ für falsch positiv).
- Interessanter wäre die
Wahrscheinlichkeit dafür, dass sich der Prozess tatsächlich verändert hat.
Der
erste Punkt ist eine direkte Folge der bei Statistischer
Prozesskontrolle zur Anwendung kommenden statistischen Methoden. Bei
laufendem, unverändertem Prozess wird jede Stichprobe mit der
Wahrscheinlichkeit 1% ausserhalb der EG liegen. Man kann die
regelmässige Stichprobenmessungen als Rauschen bezeichnen, das etwa
jedes 100te mal so laut wird, dass es falschen Alarm auslöst.
Wenn sich der Prozess tatsächlich
einmal verändert, dann wird sich das durch häufigere Alarme zeigen. Ob
es sich im Einzelfall um einen berechtigten oder nur falschen Alarm
handelt, muss jedesmal von neuem entschieden werden. Bei der
Entscheidung ist es hilfreich, die Vorgeschichte (also frühere
Stichproben) zu berücksichtigen. In der SPC Praxis wird der
Prozessführer allerdings nicht warten, bis sich die Alarmhäufigheit
wahrnehmbar erhöht hat, sondern er wird durch laufende Auswertung,
statistische Tests und "scharfes Hinsehen" schon deutlich früher über
mögliche Prozessänderungen erfahren und ggfs. gegensteuern.
Solche statistische Tests heissen Trendtests und Stabilitätstests.
Letztere testen die in der SPC Praxis weit verbreiteten so genannten
Stabilitätskriterien.
- Die 32. Stichprobe auf der xquer
Karte
zeigt eine Verletzung der OEG. Da der Prozess keinen Trend dahin
erkennen lies, und danach unverändert weitergelaufen ist, kann man
schliessen, dass es sich um einen falschen Alarm gehandelt hat. Dieser
Stichprobenmittelwert liegt rein zufällig ausserhalb der
Eingriffsgrenzen.
Datenschutzhinweise