Vom Gatter zum Computer

Das Verständnis dafür, wie ein Computer im Kern funktioniert, ist kein Allgemeinwissen.

Zwar glaubt jeder, irgendwie zu wissen, was passiert: in Programmiersprachen werden Programme geschrieben. Da gibt es Funktionen und Anweisungen und Schleifen, und all diese Konstrukte sagen dem Computer, was er tun soll. Und dann gibt es Millionen bis zu Abermilliarden Transistoren, die man zusammengenommen „Prozessor“ nennt, und der führt das Programm dann aus.

Doch wie? Begriffe wie „Compiler“ oder „Betriebssystem“ mögen auch noch als Begriff bekannt sein, aber wie das genau funktioniert? Zumindest die Teilnehmer der üblichen Talkshows wissen es wohl nicht. Und trauen sich im Zweifel auch nicht daran, denn das ist ja ein unüberschaubares Fachgebiet, auf dem nur der Informatiker und der Ingenieur sich auskennt. Wobei auch unter diesen viele ins Schwitzen kämen, müßten sie es mal eben erläutern.

Hier setzt „nand2tetris“ an, ein Online-Kurs von zwei israelischen Informatikprofessoren. Der Kurs läßt – wie auch ihr inhaltsgleiches Buch „The Elements of Computing Systems“ – den Teilnehmer bei einfachen Logikgattern wie UND sowie ODER beginnen, und steigt mit ihm dann über kombinatorische und sequentielle Schaltungen die Hardwarehierarchie hinauf, bis der Teilnehmer einen einfachen Computer entworfen hat.

Dieser ist natürlich nicht real, niemand muß löten können. Die Gatter und daraus zusammengefügten Schaltungen werden in einem downloadbaren Java-Programm simuliert. Dennoch findet sich hier alles in vereinfachter Form: der Teilnehmer verwendet eine simple Hardwarebeschreibungssprache und simuliert dann die Schaltung in einem ebenso einfachen Simulator. Wenige Knöpfe, Reduzierung aufs wesentliche. Alles fein.

Bis hierhin muß der Teilnehmer sozusagen keine Vorkenntnisse haben, ab hier muß er programmieren können. In einer beliebigen Programmiersprache. Auch der allereinfachsten, es kann auch BASIC sein. Es geht nur um einfache Textein- und -ausgaben auf der Konsole.

Im zweiten Teil des Kurses und des Buches setzt der Teilnehmer dann darauf auf und steigt die Softwarehierarchie hinauf. Zunächst steht ein Assembler auf dem Programm, denn in Maschinensprache zu programmieren ist lästig.

Anschließend entwirft er eine virtuelle Maschine, die Anwenderprogramme ausführen kann, und implementiert diese in Assemblersprache.

Dann entwirft er eine Hochsprache, die ein wenig wie Java aussieht, aber sehr abgespeckt und simpel ist. Und natürlich einen Compiler dafür. Themen wie Lexer und Parser werden natürlich im Kurs und im Buch erklärt.

Und wie überall im Kurs: die Themen werden so minimal angeschnitten, daß eine sinnvolle, praktische Verwertung möglich wird, nicht mehr. Das ist eben die Leistung des Buches! Über Syntaxanalyse allein kann man viele Semester studieren. Aber für diese ganz einfache Sprache reicht das bißchen aus (die natürlich so vorentworfen ist, daß sie mit allereinfachsten Analysemethoden handzuhaben ist – die Autoren lenken den Teilnehmer ja schon sehr deutlich auf den vorgegebenen Weg).

Zuguterletzt entwirft und implementiert der Teilnehmer noch ein einfaches Betriebssystem. Auch hier darf man keine hochtrabenden Vorstellungen haben, es sind ein paar einfache Routinen, die erstens praktisch sind, um eigene kleine Programmierprojekte auf „seinem Computer“ umzusetzen, und die zweitens einen Eindruck geben, welche Themenbereiche ein Betriebssystem abdecken kann.

Ich kann den Kurs nur jedem ans Herz legen, besonders auch Leuten in meiner Position: im Prinzip habe ich nichts neues gelernt, ich wußte das alles schon. Im Prinzip halt. Implementiert habe ich einen Compiler aber noch nie. Viel zu kompliziert…

Nein, ist es nicht! Und es macht richtig Spaß!

Den Onlinekurs finde ich als Format etwas langatmig, stundenlang Videos anzugucken ist nicht so meins, daherbevorzuge ich deutlich das Buch. Inhaltlich sind beide jedoch identisch, und der Kurs ist kostenlos im Internet zu belegen.

Und hier beginnt nun meine kleine Reihe über nand2tetris, in der ich ein bißchen zeigen möchte, was ich dabei erlebt habe.

Ein Start in Blender 3D

Das Wochenende ist da, Corona verhindert viele Freizeitaktivitäten, da lerne ich doch einfach mal was neues.

Blender ist ein 3D-Grafikprogramm mit interessanter Geschichte: als kommerzielle Software entwickelt, machte der Hauptentwickler nach Untergang seiner Firma der Community ein Angebot: „bekommt 100000 Euro zusammen und ich gebe den Code als Freie Software heraus“.

Das Crowdfunding war erfolgreich, der Hauptentwickler Ton Rosendaal hat das Projekt auch nicht verlassen, wie man annehmen könnte, und es fand sich eine Schar von Benutzern und auch von Entwicklern.

Heute ist Blender eines der Vorzeige-Open-Source-Projekte überhaupt, zusammen mit PostgreSQL: fantastische Software, die stabil ist, ständig neue Features dazubekommt, die Bugdichte gering hält, und solide finanziert ist. Und eine angenehme und professionelle Community hat.

Nun bin ich ja nicht so künstlerisch veranlagt. Also so gar nicht. Schon 2D-Grafikprogramme machen mir Schwierigkeiten. Und Blender ist dann nochmal eine ganz andere Hausnummer.

Aus Büchern lernen klappt meiner Erfahrung nach bei solchen grafiklastigen Themen nicht. Schauen wir eben auf YouTube nach Videos. Und da gibt es Unmengen an Tutorials.

Nun sind kostenlose Tutorials meistens von genau der Qualität, die man von „für umme“ erwarten kann: oft ein hochmotivierter Lehrer, aber das Tutorial hakelt an jeder Ecke, wenn man es nachzuvollziehen versucht, und am Ende bricht man dann entnervt ab.

Für Blender gibt es tatsächlich mehrere gute Optionen:

Der Klassiker ist das Donut-Tutorial. Mich holt das aber aus irgendeinem Grund nicht ab. Grant Abbitt hat ein recht kurzes Tutorial, das aber sehr verständlich zeigt, wie man eine einfache Szene aufbauen und rendern kann. Das habe ich mir zweimal komplett angeguckt, aber ohne es konkret am Programm nachzuvollziehen. Das hatte ich eigentlich vor, nun anzugehen.

Aber dann fand ich das Tutorial von Zach Reinhardt. Viel umfangreicher (Cloth-Simulation! Generierte Materialien!) und dazu eine viel schönere und stimulierendere Szene. Gesagt getan!

Nach eineinhalb Tagen (mit vielen Pausen) kann ich sagen: es hat sich gelohnt! Spaß gemacht hat es auch.

Probleme gab es auf dem Weg auch einige, aber keine, die ich nicht beheben oder umschiffen konnte.

Wir modellieren einen Korb mit Äpfeln, davor zwei Apfelhälften und ein Messer. Alles texturiert, beleuchtet (3-Punkt-Beleuchtung) und mit viel Liebe zum Detail.

Mein Ergebnis, daß im Beitragsbild oben zu bestaunen ist, kommt bei weitem nicht an die Vorlage, die Zach im Tutorial erstellt, heran. Aber für ein Wochenende, von Null auf Obstkorb, finde ich das schon sehr anständig.

Natürlich könnte ich das jetzt nicht, ohne das Video zu gucken, nochmal nachvollziehen. Aber Teile davon schon. Und manche Dinge sind schon fast im Muskelgedächtnis. „g x“ zum Verschieben entlang der x-Achse, „Shift-d“ zum duplizieren. Ich kann jedenfalls mehr Blender als zuvor.

Schwierigkeiten auf dem Weg waren vor allem folgende:

  • Der Kurs ist für Blender 2.8 gemacht, das ist zwar bereits mit dem komplett umgestalteten User-Interface, aber ich habe gleich das aktuelle Blender 2.9 verwendet. Eine Einstellung ist ersatzlos weggefallen, einige andere sind ganz woanders hingewandert. Zum Glück findet man in den Kommentaren darunter in der Regel die Lösung, wenn auch nicht unbedingt weit oben, da muß man sich schon durchkämpfen.
    Der Kurs ist komplett kostenlos, und daher kann man keine Ansprüche an den Autor stellen. Und die Videos neu für Blender 2.9 aufzunehmen, wäre kaum vertretbarer Aufwand. Aber wenn er es den Zuschauern etwas einfacher machen wollte: eine textuelle Zusammenstellung der relevanten Änderungen direkt in der Videobeschreibung (das wären jeweils so ein bis zwei Sätze) würde dem Zuschauer das ganze sehr erleichtern.
  • Beim Texture-Painting sah es so aus, als ob nichts passieren würde. Tatsächlich wurde auf der Rückseite gemalt (wo ich es nicht sehen konnte). Das lag an falschen Normalen-Vektoren (klar, wenn die negativ sind, ist alles gespiegelt), aber da habe ich in den Kommentare lange, lange suchen müssen, bis ich mitbekam, was passiert und wie man es behebt. Ich weiß auch leider gar nicht, wie ich das Problem überhaupt verursacht habe.
  • Mein Apfel sah gut aus, hat aber offenbar in der Geometrie eine komische Stelle. Beim Zerteilen in zwei Hälften waren es nicht halbkugelartige Gebilde, sondern es war bei beiden Hälften am Rand nochmal eine Stelle ausgefressen. Damit habe ich keine ordentliche Schnittebene eingefügt bekommen.
    Ich habe noch versucht, die Geometrie zu verbessern, indem ich Punkte verschoben habe, aber es wurde nur immer schlimmer. Da fehlte mir klar das Wissen, das Problem zu beheben, und neu anfangen mochte ich nicht, weil das Modellieren des Apfels schon einige Zeit her war, und ich dann sehr viele folgende Schritte hätte erneut durchführen müssen. Ich habe deshalb die Apfelhälften schweren Herzens weggelassen.
  • Rendern mit Eevee stürzte bei mir zunächst ab, ich habe dann GPU-Rendern abgeschaltet und nur auf der CPU gerendert. Ja, das dauert.
  • Rendern mit Cycles dauerte bei mir 30 Minuten. Mir war gar nicht klar, daß mein Rechner so schwach ist. Hier konnte ich GPU-Rendering ohne Absturz dazunehmen, aber das hat die Zeiten nur marginal verbessert. Meine GeForce GTX 1050 war damals mal Mittelklasse, heute ist sie wohl nichts mehr. Ich habe allerdings auch keine Vorstellung, wie viel sie beitragen können müßte, vielleicht stimmt ja auch nur eine Einstellung nicht.
  • Beim Cycles-Rendern fiel mir auf, daß da ein Apfelstiel durch das Tuch durchgesteckt ist. Zunächst dachte ich, das sei ja eine ganz nette Sache, das könne ja auch real passieren, bis mir auffiel, daß der Stiel, um zum Tuch zu kommen, erstmal durch die Metallschale tunneln müßte. Ich hab den Stiel dann gelöscht, aber im Eevee-Render oben sieht man ihn noch.
  • Nach den Apfelhälften das größte Problem: irgendwas stimmt mit dem Licht an meinem Messer nicht. Die Klinge ist schwarz, ebenso ist die Rückseite des Messer viel zu dunkel.
    Selbst nachdem ich nochmal ein Licht direkt darüber gepackt habe, sehe ich kein Licht auf der Klinge reflektieren oder wenigstens die silbrig-metallische Textur. Auch Rotieren des Messers half nicht.
    Ich weiß überhaupt nicht, was da los ist, und damit weiß ich auch nicht, wonach ich googeln sollte.
    Es sieht jedenfalls doof aus, und deswegen ist der Eevee-Render „mein“ finales Ergebnis. Hier aber zunächst noch mein Cycles-Render:
Finaler Cycles-Render
Finaler Cycles-Render

Insgesamt ein lohnendes Wochenende. Und ich möchte weitermachen. Zach Reinhardt hat auch noch einen bezahlten Kurs mit geradezu Lastwagenladungen voll Videos. Inklusive Animation und vielem mehr, was im kostenlosen Kurs nicht vorkam. Das steht nach einer Pause dann als nächstes auf dem Programm.

Ihr Monitor ist zu hell eingestellt!

„Dark Themes“ sind gerade unheimlich in Mode. Viele Menschen mögen das moderne Aussehen. Doch immer wieder lese ich als Argument für dunkle Themes auch, daß Menschen sich von hellen Themes geblendet fühlen, wenn es Abend wird und das Licht schummrig wird.

Ich bin kein Freund dunkler Themes. Aus rein ästhetischen Gründen. Aber ich verstehe, wenn dunkle Themes anderen Menschen gefallen.

Was ich nicht so recht verstehe, ist das Argument mit dem Blenden. „Augenschonend“ seien dunkle Themes. Und das ist Quatsch. Ergonomischer Unsinn.

Denn wenn Sie ein heller Bildschirmhintergrund blendet, dann ist Ihr Monitor zu hell eingestellt.

Auch spät abends sollte der Bildschirm nicht ermüden oder gar blenden. Blaufilter wie der Nachtmodus in Windows, Mac OS X oder den Handy-Betriebssystemen helfen dabei. Doch vor allem ist die Helligkeitseinstellung (auch: Brightness) wichtig.

Es gibt eine ganz einfache Faustformel: Lassen Sie den Bildschirm weiß leuchten. Öffnen Sie unter Windows beispielsweise Notepad und maximieren Sie das Fenster. Nun halten Sie ein Stück weißes Papier direkt neben den Bildschirm.

Ist der Bildschirm deutlich heller als das Blatt Papier? Dann ist Ihr Bildschirm zu hell eingestellt!

Drehen Sie den Helligkeitsregler herunter, bis der weiße Notepad-Hintergrund nicht wesentlich heller leuchtet als das Blatt Papier.

Das ist weit unten, nicht wahr? Als Anhaltspunkt: Mein Monitor zuhause steht auf einer Brightness von 16 (von 100). Beide Monitore bei der Arbeit stehen auf 0. Ja, null!

Das sieht die erste halbe Stunde schummrig und seltsam aus. Aber das Gehirn gewöhnt sich sehr schnell daran, und dann sieht es völlig normal aus. Weil es auch normal ist!

Nur Kollegen, die vorbeikommen, werden Sie ab und an verwundert darauf ansprechen.

Netter Nebeneffekt: In der Regel verbessert sich auch die Farbwiedergabe des Bildschirms ein wenig, weil er nun nicht mehr Photonen rauspumpt, koste es was es wolle, sondern er innerhalb vernünftiger Parameter arbeiten kann.

Critical Chain im PMBOK

In der fünften Auflage von 2013 hatte „A Guide to the Project Management Body of Knowledge“ die Critical-Chain-Methode von Goldratt endlich in Kapitel 6 aufgenommen.

Doch in der sechsten Auflage von 2017 ist Critical Chain sang- und klanglos wieder herausgefallen.

Leider veröffentlicht PMI keine Rationales für die einzelnen Fassungen. Daher bleibt – auch mangels öffentlicher Äußerungen zum Thema – unklar, weshalb sie diesen Schritt gegangen sind. Lange genug gewartet hatten sie mit der Aufnahme ja (Critical Chain ist von 1997), da kann man doch annehmen, daß das eine wohlüberlegte und fundierte Entscheidung war. Und dann die Kehrtwende nur vier Jahre später.

Ich finde natürlich schade, daß diese Methode die Adelung durch die PMI wieder verloren hat, aber noch problematischer finde ich, daß offenbar da draußen viele Projektleiter Critical Chain sagen und ein modifiziertes Critical Path machen.

Wenn Sie Sicherheitsreserven (oder Puffer) in die einzelnen Arbeitspakete einbauen, wenn Sie diese nicht zu einem oder wenigen Puffern „poolen“ (beispielsweise um explizit den kritischen Pfad zu schützen), wenn Sie die „Angstschätzungen“ akzeptieren und nicht darauf bauen, ja darauf drängen, daß die Hälfte der Arbeitspakete schließlich länger dauern werden, als Sie dafür Zeit eingeplant haben, dann machen Sie einfach kein Critical Chain.

Das ist nicht an sich schlecht, aber dann trotzdem von Critical Chain zu sprechen wäre Etikettenschwindel.

Critical Chain ist für die Furchtlosen, die nebenbei auch noch die Erwartungen des gesamten Umfeldes umkrempeln möchten („Was soll das heißen, daß Sie die Arbeitspakete auf Kante geplant haben und noch dazu die Schätzungen recht optimistisch sind? Sind Sie sich wirklich sicher, daß dieser Puffer am Ende reicht?“).

Für die, die ihre Entwickler erstmal an den Rand der Meuterei bringen wollen („Sie sagen so offen, daß wir nur rumfaulenzen? Was soll das heißen, Arbeit füllt immer die geplante Zeit aus? Trauen Sie uns nicht? Wir brauchen eine Sicherheitsreserve!“).

Wer das tut, hat meinen Respekt. Vielleicht war die Zeit wirklich noch nicht reif dafür…

Kalibriertes Schätzen

Warum das alles?

Von uns werden häufig Schätzungen verlangt. Gerade im Projektumfeld möchte der Projektleiter gerne Aufwandsabschätzungen bekommen, die dann auch belastbar sind. Manchmal eine einfache Zahl, häufig aber auch Korridore „best case – average case – worst case“.

Dabei liegt jedoch herkömmlich meistens der Fokus auf einem dieser Werte des Korridors, und die anderen werden dann durch naive Schätzung „plus/minus 30%“ abgeleitet. Das Hauptaugenmerk dabei ist, den Ankerwert möglichst exakt zu treffen.

Diese Schätzung ist schon schwierig, doch die andere Seite wird häufig komplett vernachlässigt: mit welcher Konfidenz ist diese Schätzung versehen?

Eine Konfidenz von 100% zu verlangen ist dabei nicht sinnvoll, denn dann werden die geschätzten Korridore abstrus groß. Und da das Schätzen kein Selbstzweck ist, sondern die Schätzung weiterverwertet werden wird, beispielsweise in einem Projektplan, ist es wichtig, die Schätzungen mit einer sinnvollen Konfidenz zu versehen, die dann auch bezifferbar, konsistent und reproduzierbar ist.

Es gibt kein „Richtig“ für die anzuzielende Konfidenz, aber als ersten Faustwert kann man gut 90% nehmen. Damit liegen die meisten Schätzungen richtig, die geschätzten Intervalle müssen aber nicht extreme und seltene Ausreißer einbeziehen, wodurch sie vernünftig klein werden.

Damit ergibt sich natürlich ein offensichtliches Problem: wir alle sind schon schlecht darin, einen einzelnen Wert zu schätzen. Doch immerhin wissen wir insgeheim selbst, daß wir darin nicht gut sind. Wer kann aber schon seine Schätzungen so wählen, daß sie bei häufiger Wiederholung eine bestimmte vorgegebene Konfidenz aufweisen?

Dazu müssen wir unsere Schätzungen kalibrieren.

Es geht nicht darum, den Schätzwert an sich zu verbessern und zielgenauer zu machen. Es geht darum, die Schätzung an eine vorgegebene und gewünschte Konfidenz anpassen zu können.

Wenn ich in der Regel Schätzungen abgebe, die in Übereinstimmung mit dieser vorgegebenen Konfidenz liegen, dann sagt man, ich sei ein kalibrierter Schätzer.

Und darum geht es in diesem Artikel. Wie ermittle ich meinen aktuellen Stand der Kalibrierung und wie kann ich meine Kalibrierung verbessern?

Übungen

Vorbemerkungen

Sollen diese Übungen in einer Gruppe durchgeführt werden, so sind gewisse Grundregeln wichtig:

  • Jeder Teilnehmer beantwortet die Fragen für sich selbst auf seinem eigenen Blatt Papier.
  • Jeder Teilnehmer wertet seine Antworten selbst aus (Anleitung folgt).
  • Der Moderator fragt anschließend nicht nach Ergebnissen.
  • Jeder Teilnehmer nimmt seinen Zettel mit Antworten und der Auswertung mit, wenn er den Raum verläßt.
  • Anschließend kann jeder Teilnehmer den Zettel schreddern, in den Papierkorb werfen oder in der Teeküche aushängen, je nach persönlichem Mitteilungsbedürfnis.

Teil Eins: Intervalle

Es folgen zehn Fragen. Die Antwort auf jede Frage ist eine einzelne Zahl, beispielsweise eine Jahreszahl oder eine Geschwindigkeit.

Die Aufgabe lautet nun, ein Intervall „mindestens – höchstens“ beziehungsweise „frühestens – spätestens“ anzugeben. Also zwei Zahlen.

Und zwar dergestalt, daß dieses Intervall eine Konfidenz von 90% aufweist.

Das bedeutet, daß das Intervall groß genug sein sollte, so daß man sich fast sicher ist. Es sollte aber nicht so groß sein, daß man sich völlig sicher ist. Beispielsweise ist das Intervall „vom Urknall bis gerade eben“ zu eine Frage nach dem Geburtsjahr einer Person zwar insofern eine sehr gute Schätzung, als man sicherlich richtig liegt, aber diese Schätzung ist auch sinn- und wertlos.

Wenn man diese Frage-Antwort-Spiele ganz häufig wiederholt, sollten neunzig Prozent der korrekten Lösungen im geschätzten Intervall liegen und zehn Prozent außerhalb.

Dabei ist unerheblich, wie weit außerhalb oder innerhalb des Intervalls die Lösung liegt. Drin ist drin, draußen ist draußen, es gibt kein „aber es stimmte ja fast“.

Hier nun die Fragen:

  • Wieviel liegt ein Learjet 75 in Kilogramm?
  • Welchen Radius in Meter (Erdmittelpunkt – Satellit) hat der geostationäre Orbit?
  • Wieviele Meter unter dem Meeresspiegel lag das havarierte russische U-Boot Kursk?
  • Wieviele Millimeter ist ein Zehn-Euro-Schein lang?
  • In welchem Jahr stand der DAX erstmal über 5000 Punkte?
  • Ab wieviel Grad Celsius verdampft Helium?
  • In welchem Jahr wurde die deutschsprachige Sesamstraße erstmal gesendet?
  • Wieviele Pokémons gibt es?
  • In welchem Jahr wurde Macbeth uraufgeführt?
  • Wie hoch war der Listenpreis des Golf 1 in DM?

Teil Zwei: Konfidenz

Die Übung besteht aus zehn Sachaussagen. Jede ist entweder wahr oder falsch.

Sie antworten diesmal also nicht mit einem Intervall, sondern einfach mit „wahr“ oder „falsch“.

Und außerdem mit Ihrer persönlichen Konfidenz: wie sicher sind Sie sich bei Ihrer Antwort?

Als Konfidenz können 50%, 60%, 70%, 80%, 90% und 100% angegeben werden. Bitte keine 82,7%. Und nicht kleiner als 50%. Wenn Sie geneigt sind, 40% anzugeben, verdrehen Sie Ihre Antwort und geben 60% an.

Die Aussagen:

  • Ein Eurostück ist schwerer als eine CD.
  • Buzz Aldrin war der zweite Mann auf dem Mond.
  • Der Zweite Weltkrieg liegt näher am heutigen Tag als am Amerikanischen Bürgerkrieg.
  • Manche Schildkröten werden 200 Jahre alt.
  • Es gibt in Deutschland mehr als 20000 Kilometer Autobahnen.
  • Es gab mehr als 20 deutsche Physiknobelpreisträger.
  • Das Bruttoinlandsprodukt von Kalifornien ist größer als das von Italien.
  • Die Entfernung (Luftlinie) zwischen Wladiwostok und Mumbai ist größer als die zwischen Wuppertal und Moskau.
  • Hannover hat mehr Stadtteile als Stuttgart.
  • Ein Eishockey-Puck paßt in ein Golfloch.

Auswertung

Kommen wir nun zur Auswertung. Zunächst für Teil Eins:

Wieviel liegt ein Learjet 75 in Kilogramm?6168
Welchen Radius in Meter (Erdmittelpunkt – Satellit) hat der geostationäre Orbit?42157
Wieviele Meter unter dem Meeresspiegel lag das havarierte russische U-Boot Kursk?108
Wieviele Millimeter ist ein Zehn-Euro-Schein lang?127
In welchem Jahr stand der DAX erstmal über 5000 Punkte?1998
Ab wieviel Grad Celsius verdampft Helium?-269
In welchem Jahr wurde die deutschsprachige Sesamstraße erstmal gesendet?1973
Wieviele Pokémons gibt es?890
In welchem Jahr wurde Macbeth uraufgeführt?1606
Wie hoch war der Listenpreis des Golf 1 in DM?7995

Markieren Sie die Werte, die innerhalb Ihrer Intervalle liegen. Wenn sie bereits ein gut kalibrierter Schätzer sind sollten es etwa neun von diesen zehn sein. Natürlich ist das mit einer statistischen Schwankung versehen, dazu später nochmal.

Nun zu Teil Zwei:

Ein Eurostück ist schwerer als eine CD.falsch (7,5 Gramm vs. 15 Gramm)
Buzz Aldrin war der zweite Mann auf dem Mond.wahr
Der Zweite Weltkrieg liegt näher am heutigen Tag als am Amerikanischen Bürgerkrieg.falsch (75 Jahre vs. 74 Jahre)
Manche Schildkröten werden 200 Jahre alt.falsch (über 176 ist die höchste Schätzung)
Es gibt in Deutschland mehr als 20000 Kilometer Autobahnen.falsch (>13000 Kilometer)
Es gab mehr als 20 deutsche Physiknobelpreisträger.wahr (23,5 – Mehrstaatlichkeit wurde halb–halb gewertet)
Das Bruttoinlandsprodukt von Kalifornien ist größer als das von Italien.wahr (2,6 Billionen USD vs. 2 Billionen USD)
Die Entfernung (Luftlinie) zwischen Wladiwostok und Mumbai ist größer als die zwischen Wuppertal und Moskau.wahr (6078 Kilometer vs. 2056 Kilometer)
Hannover hat mehr Stadtteile als Stuttgart.falsch (51 vs. 152)
Ein Eishockey-Puck paßt in ein Golfloch.wahr (3 Zoll vs. 4,25 Zoll)

Markieren Sie die Aussagen, deren Wahrheitsgehalt Sie korrekt bewertet haben.

Nun rechen Sie die Konfidenzen in von Prozenten in Zahlenwerte um (aus 70% wird 0,7) und addieren Sie diese zehn Zahlenwerte auf. So viele richtige Schätzungen erwarten Sie.

Ein Beispiel:

AussageIhre AntwortAntwort richtig?Konfidenz inKonfidenz (Zahl)
falschfalschja50%0,5
wahrwahrja70%0,7
falschwahrnein100%1,0
falschfalschja90%0,9
falschfalschja90%0,9
wahrfalschnein50%0,5
wahrfalschnein80%0,8
wahrfalschnein80%0,8
falschfalschja100%1,0
wahrfalschnein60%0,6
5 ja7,7

In diesem Beispiel hätten Sie also mit Ihrer Antwort eigentlich etwa 8 mal richtig liegen sollen, haben aber nur 5 Treffer gehabt.

Keine Sorge, solche Ergebnisse (und schlechter) sind normal.

Einschränkungen und Einwände

Statistische Signifikanz

Natürlich war das nur ein einzelner Versuch mit zehn Fragen, also eine sehr kleine Stichprobe. „ich hatte sieben Antworten im Intervall, das ist doch innerhalb der statistischen Schwankung“ mag Ihnen auf der Zunge liegen. Doch ist dem so?

Für den ersten Teil ist eine Abschätzung recht einfach. Wenn wir eine Bernoulliverteilung annehmen (und das ist vernünftig, auch wenn es hier zu weit führen würde), können wir uns die Frage stellen:

Angenommen, ich bin ein kalibrierter Schätzer. Wie wahrscheinlich ist dann mein Ergebnis?

Und die Antwort liegt in der folgenden Tabelle:

Anzahl TrefferWahrscheinlichkeit
01,00E-10
19,00E-09
23,64E-07
38,75E-06
41,38E-04
51,49E-03
61,12E-02
75,74E-02
81,94E-01
93,87E-01
103,49E-01

Kurzer Plausibilitätscheck:

  1. Die Wahrscheinlichkeit für null Treffer ist exakt 10 hoch minus 10. Denn als kalibrierter Schätzer liegen Sie in 90% der Fälle richtig, also in zehn Prozent der Fälle falsch. Die Wahrscheinlichkeit, bei alles zehn Fragen falsch zu liegen, lautet also 0,1 × 0,1 × … × 0,1, also 10 hoch minus 10.
  2. Die höchste Wahrscheinlichkeit liegt bei neun Treffern, wie erwartet. Doch zehn Treffer sind deutlich wahrscheinlicher als acht Treffer. Wieso? Weil Sie zu 90% korrekt schätzen, irren Sie leichter in Richtung „zu viele Treffer“.

Und dasselbe nochmal als Schaubild:

Auswertung Teil Eins des Kalibrierten Schätzens
Auswertung Teil Eins des Kalibrierten Schätzens

Deutlich wird dabei, daß sieben Treffer schon sehr unwahrscheinlich sind, alles darunter praktisch verschwindet.

Wenn Sie sich in den Bereichen sieben Treffer und niedriger bewegen, dann ist es unplausibel, daß Sie bereits ein kalibrierter Schätzer sind, trotz der geringen Zahl an Fragen.

Fragen

Der nächste Einwand, der üblicherweise kommt, lautet „das waren ja keine Fachfragen, sondern Trivia“ oder „die Fragen waren albern“.

Das ist richtig. Und Absicht, denn auf diese Weise sind die Fragen vielfältig einsetzbar, unabhängig vom Publikum (jedenfalls in Deutschland). Dadurch müssen nicht für jede Vorstellung andere Fragen vorbereitet werden. Außerdem lockern Triviafragen die Übungen ein wenig auf, niemand fürchtet, sein Gesicht zu verlieren, weil er bei einer Fachfrage falsch lag.

„Wenn man mich etwas elektrotechnisches gefragt hätte, wären meine Schätzungen besser gewesen“.

Diese Erwiderung geht in iene ähnliche Richtung, entspringt aber einem Mißverständnis.

Natürlich wäre die Antwort des durchschnittlichen Layouters auf die Frage „hier ist ein Schaltplan, wie muß dieser Kondensator dimensioniert werden?“ genauer.

Bei einer Fachfrage würde ich selbstverständlich ein engeres Intervall erwartet als bei einer Triviafrage.

Doch die Breite des geschätzten Intervalls wurde überhaupt nicht ausgewertet. An dieser Stelle stutzen viele Teilnehmer und blättern zurück zu ihrer Auswertung. Doch es stimmt. Die Auswertung war binär: Entweder die korrekte Antwort befindet sich im Intervall oder nicht. Es gab keine Bonuspunkte dafür, ein möglichst enges Intervall gewählt zu haben.

Die Breite des Intervalls spielt natürlich eine Rolle, aber nicht für die Frage „richtig oder falsch“, sondern für die Kalibrierung: schätzt man zu konservativ oder zu forsch.

Es handelt sich um keine Trickfragen oder Fangfragen. Aber sie sind so gewählt, daß der Teilnehmer sich gut überlegen muß, wie sicher er sich ist.

Sich verbessern

Sehr wenige Menschen sind von Natur aus kalibrierte Schätzer. Die gute Nachricht ist aber: fast alle Menschen können sich durch Übung verbessern (Studien sagen, daß etwa 5% sich nicht verbessern).

Zunächst einmal lohnt es sich, diese Übung öfter zu wiederholen, natürlich mit anderen Fragen.

Ein psychologischer Trick besteht darin, so zu tun, als setze man Geld auf seine Antwort. In echt zu setzen funktioniert noch besser, aber so zu tun als ob, hilft auch bereits.

Der „equivalent bet test“ stellt die Frage: „möchten Sie Geld auf Ihre Antwort setzen oder lieber auf dieses Glücksrad mit Gewinnwahrscheinlichkeit 90%?“. Natürlich sollte der Teilnehmer hier indifferent sein, doch oftmals weist eine instinktive Reaktion pro oder contra Glücksrad auf ein Problem der Schätzung hin.

Es kann helfen, einfach mal anzunehmen, daß die Schätzung falsch ist, und dadurch eine gezielte Anstrengung zu unternehmen, die Schätzung zu hinterfragen.

Es ist okay, absurd große Intervalle als Startpunkt zu nehmen, sie sind ein Zwischenschritt auf dem Weg zu einem besseren Intervall.

Bei den allermeisten Fragen sollten die Intervallgrenzen symmetrisch sein. Das bedeutet, wenn Sie ein Intervall von 100 bis 200 mit Konfidenz 90% schätzen, dann sollten Sie den Intervallen „-unendlich bis 200“ sowie „100 bis plus unendlich“ beiden eine Konfidenz von 95% zuschreiben, weil sich die „übrigen“ 10% gleichmäßig auf „darüber“ und „darunter“ verteilen sollten.

Abschließendes

Ich halte es für wichtig, meine Schätzungen an eine Konfidenz anpassen zu können. Im Berufsleben ist mir bislang allerdings noch niemals begegnet, daß jemand dies eingefordert hätte.

Meine persönlichen Ergebnisse bei den beiden Prüfungen waren katastrophal. Ich war viel zu selbstbewußt (das bedeutet, meine Intervalle waren deutlich zu eng), und das ist wohl nach Studienlage auch der Regelfall.

Daher habe ich mir vorgenommen, solche Übungen regelmäßig zu wiederholen. Gegebenenfalls werde ich sogar hier im Weblog ab und an diese Versuche dokumentieren.

Das Risikoakzeptanzkriterium MEM

Die Minimale Endogene Mortalität ist ein relativ altes deutsches Risikoakzeptanzkriterium, das versucht, die Frage der Risikominderung auf feste Fundamente zu stellen.

„Endogen“ heißt „im Inneren erzeugt“, sprich: ohne äußeren Einfluß auf das zu bauende System. „Mortalität“ ist die Sterblichkeit.

Es geht also um die Frage, wie wahrscheinlich es ist zu sterben. Dabei wird die minimale Sterbenswahrscheinlichkeit gesucht. Also nicht die des 60-jährigen oder des Krebspatienten, sondern die reale Sterbenswahrscheinlichkeit für Kinder und Jugendliche zwischen fünf und fünfzehn Jahren. Die Zahlenwerte basieren auf einer Studie aus dem Jahr 1981. Daraus ergibt sich eine natürliche Sterblichkeit dieser Gruppe von 2×10^-4 Todesfällen pro Person und Jahr.

Rechnung

Das Ziel lautet, daß das System keine merkliche Auswirkung auf das Todesfallrisiko haben soll. Es soll also höchstens im Bereich dieses „allgemeinen Hintergrundrisikos“ liegen.

Der Mensch ist häufig von einer Anzahl von technischen Systemen umgeben, nehmen wir bis zu 20 Stück an, dann sollen einem einzelnen System nur fünf Prozent dieser Rate zugestanden werden: 1×10^-5 Todesfällen pro Person und Jahr.

Dabei rechnen wir mögliche Verletzungen in Todesfälle um: hundert Leichtverletzte entsprechen zehn Schwerverletzten entsprechen einem Toten.

Und weil Unfälle mit einer großen Anzahl von Toten gesellschaftlich als besonders schwerwiegend wahrgenommen werden, modifizieren wir den oben errechneten Schwellwert und senken ihn für über hundert Tote linear immer weiter ab:

Minimale Endogene Mortalität

Eigenschaften

Die Minimale Endogene Mortalität ist ein absolutes Maß, sogar mit konkretem Zahlenwert. Dadurch sticht sie aus der Konkurrenz von ALARP und GAMAB hervor.

Jedoch basiert der Zahlenwert auf nur einer einzelnen Studie.

Die Minimale Endogene Mortalität ist insofern fundiert, als dem Risikoziel eine Begründung zugrundeliegt.

Sie ist aber auch sehr simplistisch und bildet komplexe Zusammenhänge nicht ab.

Inzwischen ist die Minimale Endogene Mortalität als Riskoakzeptanzkriterium mehr oder weniger ausgestorben. Sie findet höchstens noch Verwendung im Zusammenspiel mit ALARP oder GAMAB, um eine harte Grenze zu definieren. So kann diese Minimale Endogene Mortalität als Schwelle zur “broadly acceptable region” in ALARP dienen.

Das Risikoakzeptanzkriterium GAMAB

Kommen wir nach dem Beitrag zu ALARP nun zu einem anderen Risikoakzeptanzkriterium. GAMAB kommt aus Frankreich und steht für „Globalement au moins aussi bons“ und bedeutet damit „generell mindestens so gut“.

Ebenfalls verwendet wird GAME – „Globalement au moins èquivalent“.

GAMAB wurde hauptsächlich im Bereich von Verkehrsmitteln wie Eisenbahnen verwendet, wird aber auch dort von ALARP zunehmend verdrängt.

Dieses Riskoakzeptanzkriterium ist recht einfach: sei mindestens so gut wie das Referenzsystem.

Das Referenzsystem ist häufig das Vorgängersystem oder ein vergleichbares System. Wenn ich eine neue U-Bahn bauen möchte, muß sie mindestens so sicher sein wie andere U-Bahnen.

Eigenschaften von GAMAB

GAMAB ist ein absolutes Maß. „Besser als“ ist eine klare Relation. Letztenendes werden zwei oder mehrere Zahlen verglichen.

Wachsen die Anforderungen mit, so wie bei ALARP? Im Prinzip ja, denn die Monotonie („mindestens so sicher wie“) sorgt für einen Aufwärtstrend. Allerdings kann es über längere Zeit auch Stillstand geben, es gibt keinen expliziten Zwang, besser zu werden.

Hochproblematisch kann die Notwendigkeit eines Referenzsystems sein. Gerade neue, innovative Systeme haben häufig kein direkt vergleichbares System. Denn das Referenzsystem muß ähnlich genug sein, um einen seriösen Vergleich miteinander durchzuführen.

Die Bewertung ist konkreter als bei ALARP, aber nicht notwendigerweise leichter. Das System muß in Funktionseinheiten heruntergebrochen werden (beispielsweise Bremsen oder Antrieb) und dann mit dem Referenzsystem verglichen werden. Diese Abbildung muß man erst einmal erstellen können.

Dazu muß auch die Struktur beider Systeme gut bekannt sein. Das betrifft zum Beispiel Systemgrenzen, Risiken und Gefährdungen. Das eigene System sollte man wohl kennen, aber möglicherweise ist man noch in einem sehr frühen Entwicklungsstadium und das System ist noch nicht so weit ausdetailliert. Das Referenzsystem ist möglicherweise ein System der Konkurrenz und das Wissen um dessen Interna ist eingeschränkt.

Ebenfalls ist unklar, ob ein Teilsystem unsicherer sein darf als das Referenzsystem, solange ein anderes Teilsystem das wieder ausgleicht.

Ein echter Vorteil ist, daß dieses Risikoakzeptanzkriterium trotz aller Schwierigkeiten einfach zu vermitteln ist: „besser als“ versteht auch jeder Laie.

GAMAB ist insgesamt jedoch eher simplistisch und bildet komplexe Zusammenhänge nicht ab.

Das Risikoakzeptanzkriterium ALARP

ALARP steht für “as low as reasonably practicable” und ist ein verbreitetes Risikoakzeptanzkriterium. Infolge verschiedentlicher Standardisierung im Automatisierungs-, Prozeß- und Automobilbereich (IEC 61508 als Basisnorm, darauf aufbauend IEC 61511 oder angelehnt ISO 26262) ist ALARP heutzutage das verbreitetste – wenn nicht in der Praxis gar das einzige – Risikoakzeptanzkriterium.

Im Strahlenschutzbereich kennt man ALARP auch, dort aber unter dem Akronym ALARA: “as low as reasonable achievable”. Inhaltlich sind ALARP und ALARA jedoch identisch.

ALARP stammt aus England und ist unter einem weiteren Akronym – SFAIRP (“so far as is reasonably practicable”) – im dortigen Arbeitsschutzgesetz verankert. Entwickelt wurde das Prinzip aufgrund eines Gerichtsprozesses, in dem es um die Haftung nach einem Grubenunglück im Bergbau ging. Das Gericht entwickelte Grundsätze, um den Fall bewerten zu können, und das Parlament hat diese dann später aufgegriffen:

Reasonably practicable is a narrower term than “physically possible” and implies that a computation must be made […] in which the quantum of risk is placed in one scale and the sacrifice involved in the measures necessary for averting the risk (whether in time, trouble or money) is placed in the other.

Court of Appeals, Edwards v. National Coal Board, 1949

Normalerweise wird in jeder Erklärung von ALARP nun das Karottendiagramm gezeigt. Ich verstehe nicht warum, denn weder Farbe noch Form (die beide an eine Karotte erinnern) stellen irgendeine Information dar. Ich begnüge mich mit ein paar kurzen Absätzen, die ALARP ebenfalls vollständig beschreiben.

Unacceptable region

Die inakzeptable Region ist schnell erklärt: wenn das technische System nach allen ergriffenen Maßnahmen noch immer ein Risiko aufweist, das von der Gesellschaft als inakzeptabel hoch betrachtet wird, dann darf das System so nicht gebaut werden.

Was bedeuten „inakzeptabel“ und „für die Gesellschaft“? Das ist absichtlich so schwammig formuliert. Intuitiv bedeutet es, wenn man einem vernünftigen Menschen das System erläutert und er entsetzt ist, dann ist es inakzeptabel. Praktisch heißt es, daß man mit seiner benannten Stelle, die ein Zertifikat ausstellen soll, das Thema diskutiert.

Noch praktischer heißt es aber: Common practices und Stand der Technik beachten. Die meisten von uns bauen keine revolutionären Systeme. Wenn ich eine hydraulische Presse baue, dann weiß ich, daß bereits hydraulische Pressen auf dem Markt sind, es also möglich sein muß. Und wenn ich im großen und ganzen dieselben Maßnahmen in der Entwicklung ergreife, werde ich auch vergleichbar gut sein.

Dieser inakzeptable Bereich spielt in der Praxis keine Rolle. Niemand baut Systeme, die Gefahr laufen, dort hinein zu fallen. Solche System mögen in einem allerersten Brainstorming auf den Tisch kommen, werden dann aber schnell „entschärft“ oder fallengelassen.

Ein System im inakzeptablen Bereich muß eine weitere Risikominderung erfahren, oder es wird evben nicht existieren.

Tolerable region

Der tolerierbare Bereich (auch ALARP-Bereich) erfordert eine ständige Abwägung im Einzelfall: man darf sich nicht darauf ausruhen, den tolerierbaren Bereich erreicht zu haben und weitere Risikominderungen weglassen, aber man muß auch keine Risikominderung um jeden Preis betreiben.

Der tolerierbare Bereich ist eben kein Zielbereich, und sobald ich drin bin, habe ich gewonnen. Er ist der Bereich, wo ich weitere Maßnahmen zur Risikominderung ergreifen soll, aber solche Maßnahmen auch im Einzelfall ablehen darf, weil ihr Aufwand oder ihre Kosten in keinem Verhältnis zur Risikominderung stehen.

Das ist der Bereich, in dem man sich in einer normalen Entwicklung befindet. Hier fordert die benannte Stelle immer weitere Maßnahmen (aus Sicht der entwickelnden Unternehmens bis zum Stillstand des Projekts), läßt sich aber überzeugen, wenn man aufzeigen kann, daß die ergriffenen Maßnahmen wirksam sind und man alles getan hat, was vernünftig ist.

Broadly acceptable region

In dieser Region ist das Risiko bereits so weit gemindert, daß jede weitere Diskussion als Zeitverschwendung betrachtet wird. Man könnte noch weitere Maßnahmen ergreifen, diese wären auch nicht übertrieben aufwendig und teuer.

Aber das verbliebene Restrisiko ist bereits so niedrig, daß man nicht weiter darüber nachdenken muß. Die gefährdete Person könnte ja auch von einem Blitz getroffen werden, während sie gleichzeitig von einem Auto überfahren wird.

In diese Region kommt man natürlich ebenfalls so gut wie nie. Sie stellt aber klar, daß irgendwo einmal ein Ende der Risikominderung vertretbar ist.

Ab welchem Wert für das Restrisiko gilt das? Wiederum gibt es keine konkrete Zahl. Wie immer entscheidet zunächst der Entwickler, dann die benannte Stelle und zuletzt das Gericht.

Eigenschaften von ALARP

ALARP ist ein subjektives Maß. Unterschiedliche Personen können vertretbar zu unterschiedlichen Bewertungen kommen.

Die Anforderungen an technische Systeme „wachsen mit“, wenn die gesellschaftliche Einstellung sich ändert, beispielsweise weil kürzlich ein aufsehenerregender Unfall in diesem Bereich durch die Presse ging.

Ebenso wachsen die Anforderungen mit, wenn der Stand der technik sich ändert. Heute sind wir sicherlich an einem Punkt, an dem der Einsatz statischer Analysewerkzeuge für Programmcode üblich ist, also sollte man sie auch einsetzen. Vor dreißig Jahren sah das noch anders aus.

All dies bedeutet aber auch, daß ALARP einem wenig Anleitung und Halt gibt, man steht mit der Bewertung doch ziemlich alleine da.

Ein Vorteil ist sicherlich, daß kein Referenzsystem notwendig ist, ALARP kann auch für völlig neuartige Systeme angewendet werden.

Menschenleben werden durch ALARP jedoch indirekt pekuniär bewertet, denn man könnte mit mehr Kosten und Aufwand immer noch das Risiko mindern, der ALARP-Bereich sagt einem jedoch, daß auch irgendwann Schluß sein darf. Dieses Aufwiegen von Leben gegen Geld ist nicht allgemein akzeptiert.

Safety in der Karibik

Eine etwas makabre Interpretation von Safety beziehungsweise Arbeitssicherheit finden wir in einem Buch von 1844.

Dabei werden sie [die Arbeiter] dann öfters schläfrig und kommen, ohne es zu merken, mit einem Finger zwischen die Walzen, die dann sogleich den Finger und darauf die Hand zwischen sich hineinrädern und ganz zerquetschen. Darum steht immer einer mit einem scharfen Beile dabei, der sogleich den Finger oder die Hand abhaut, wenn sie hineingekommen ist, damit nicht der ganze Mensch gerädert wird.

Vollständig praktische Bearbeitung der sechs ersten Lebensverhältnisse nach Graser: ein nothwendiges Hand- und Hülfsbuch für alle Lehrer in den teutschen Schulen, welche einen angenehmen und geistigen Unterricht ihren Schülern ertheilen wollen. Sechstes Lebensverhältniß, Seite 285, „Das Zuckerrohr“

So begann das tatsächlich. Das Menschenleben war wenig wert, schmerzhaft war für den Besitzer der Plantage vornehmlich der Arbeitsausfall und Stillstand einer Maschine. Da war „Hand ab“ bereits eine Art der Fürsorge.

Statistische Prozeßlenkung nach W. Edwards Deming

Einführung

Manchmal auch „Vater des Qualitätswesens“ genannt, prägte William Edwards Deming das Feld im 20. Jahrhundert.

Seine Arbeit konzentrierte sich auf Produktionsprozesse, Fertigungsbereiche in der Automobilindustrie und anderen erzeugenden Industrien, aber ich glaube, daß vieles davon auch in anderen Gebieten anwendbar ist, Softwareentwicklung eingeschlossen. Schließlich haben auch davon weiter entfernte Gebiete wie die Medizin inzwischen Notiz von Demings Arbeit genommen.

Doch selbst wenn Sie keine direkte Anwendbarkeit auf Ihre tägliche Arbeit sehen, denke ich, es schadet nicht, ein wenig über Deming und seine Arbeit zu wissen. Kulturelle Anreicherung, sozusagen. Deming hatte großen Einfluß auf die Weltwirtschaft, wenn auch indirekt.

Deming hatte eine Anstellung als Wirtschaftsprofessor an einer Wirtschaftsuniversität und arbeitete nebenher als Consultant. Er sprach sich für die Anwendung statistischer Methoden im Qualitätsmanagement in der Industrie aus. Außerdem hielt er es für wichtig, auch Manager eine Einführung in statistische Methoden zu geben, damit sie nicht nur Ad-hoc-Methoden verwenden.

Deming schrieb mehrere Bücher, die bekanntesten sind wohl “The New Economics of Industry, Government, and Education” und “Out of the Crisis”. An den Titeln sehen Sie bereits, sie sind thematisch breit aufgestellt, es sind keine Statistiklehrbücher.

Vieles in diesen Büchern ist politisch. Er schreibt über Amerika in der Welt. Die Themen wechseln, es geht um Managerethik, aber auch um die Post. Vieles ist nicht gut gealtert, beispielsweise wenn er sich verächtlich darüber äußert, daß die Regierung so ein wunderbares Monopol wie Bell Telephone zerschlagen hat. Anderes wirkt wahllos, wie beispielsweise mehrere Absätze über den Zusammenhang von Zeugnisnoten und Schlägen für Kinder. Zumindest in “New Economics“ scheinen die ersten Kapitel eher „was ich schon immer mal sagen wollte“ zu sein. Glücklicherweise kommt der Leser zum inhaltlichen Teil, sobald er die ersten paar Kapitel überstanden hat.

Deming und Systeme

Ein Eckpfeiler seiner Managementphilosophie lautet, daß das Problem nicht die Menschen selbst sind.

Ranking is a farce. Apparent performance is actually attributable mostly to the system that the individual works in, not to the individual himself.

Abolish ranking […] Manage the whole company as a system.

Klingelts beim letzen Zitat? Jack Welsh bei General Electric? Microsoft bis noch vor kurzem? Diese Unternehmen (und ihre Manager) glaubten fest daran, daß ihre Angestellten Gegenspieler seien. Jegliche unzufriedenstellende Leistung muß daran liegen, daß die Angestellten entweder inkompetent oder faul sind, also muß man die Low-Performer entlassen und durch „Rockstars“ ersetzen.

Deming dachte stets in Systemen, nicht in Individuen. In seinem Workshops für Manager führte er häufig zwei Experimente vor: das Rote-Murmeln-Experiment und das Trichterexperiment. Wir kommen später noch zu letzteren, aber das Rote-Murmeln-Experiment ist an dieser Stelle anwendbar. Leider ist es auch recht langweilig, geradezu banal.

Ich erspare Ihnen eine Schritt-für-Schritt-Reportage und fasse es nur kurz zusammen. Wenn Sie an weiteren Details interessiert sind, gibt es auf YouTube reihenweise Videos, die Deming selbst dabei zeigen, wie er Zuhörer auf der Bühne holt und mit ihnen das Experiment durchführt.

Im Rote-Murmeln-Experiment fischen mehrere Personen („Arbeiter“) mit kleinen Paddeln Murmeln aus einer Kiste. Es gibt rote Murmeln und weiße Murmeln, und die Paddel haben unregelmäßig große Vertiefungen, in denen Murmeln sitzen und herausgefischt werden können. Die Arbeiter haben Weisung, so viele weiße Murmeln und so wenige rote Murmeln wie möglich herauszufischen. Die roten Murmeln repräsentieren dabei Defekte. Das Experiment geht über mehrere Runden, und es gibt jede Menge Vorgaben („Sie müssen das Paddel so halten“), die Leistung der Arbeiter wird jeweils erfaßt und ausgewertet.

Das Experiment ist derart aufgesetzt, daß die Leistung des einzelnen Arbeiters im wesentlich durch Zufall bestimmt ist. Es gibt praktisch keinen Einfluß von Können darauf, welche Art Murmel er erwischt. Und das ist der Punkt. Das System führt zu zufälligen Ergebnissen, der einzelne Arbeiter ist machtlos. Daher macht es wenig Sinn, gute Leistungen zu belohnen oder schlechte Leistungen zu bestrafen. Langweilig, ich weiß. Versuchen Sie einmal, dem Experiment fünfzehn Minuten lang zuzusehen.

Das bedeutet nicht, daß Menschen unwichtig seien, Deming glaubt im in Wirklichkeit das genaue Gegenteil:

The most important application of the principles of statistical control of quality […] is in the management of people.

Aber das wichtigste, was man aus diesem Experiment mitnimmt, ist folgendes: Systeme sind wichtig.

Demings Bedeutung

Deming versuchte, seinen Ideen in Amerika in die Praxis umzusetzen, aber er wurde von amerikanischen Industriellen weitgehend ignoriert. Das ist nicht sonderlich überraschend, wenn man sich die Zeit vergegenwärtigt, besonders kurz nach dem Zweiten Weltkrieg: Amerika war der Herrscher der Welt. Europa lag in Schutt und Asche, teilweise rauchte es noch. China war noch lange nicht der High-Tech-Lieferant, das es heute ist, sondern ein armes Agrarland. Das Akronym BRIC war noch nicht einmal erfunden, und von „Tigerstaaten“ hat noch niemand gesprochen.

Warum sollte Amerika sich ändern? Die Zukunft war rosig.

Nicht nur Europa lag in Ruinen, auch Japan, vielleicht sogar noch mehr. Amerika hatte Japan besetzt, und eine Anekdote berichtet davon, daß General MacArthur vor lauter Frust explodierte, als mal wieder ein Telefonat mit einer anderen japanischen Insel einfach abbrach. Er wollte Japan deshalb wiederaufbauen, zumindest einige Infrastruktur.

Ganz so war es wahrscheinlich nicht, die Geschichte ist ja nun apokryph, und auch viele andere sprachen sich dafür aus, Japan beim Wiederaufbau zu unterstützen. Und so schifften viele Experten aller möglichen Fachgebiete ein und kamen nach Japan.

Deming war einer von ihnen. Und plötzlich war er respektiert, ja sogar gefragt.

Die Japaner hatten wenig überraschend auch großes Interesse daran, ihr Land wiederaufzubauen. Sie arbeiteten schwer an ihrem Wirtschaftswunder. Wir wissen, wie das ausging.

Auf YouTube findet man faszinierende Videos von Amerikanern, die japanische Autos zertrümmern. Mit Baseballschlägern. Sogar Politiker in Wahlkampfvideos tun japanischen Produkten rohe Gewalt an.

Ich kann nur annehmen, daß die Japaner sich davon nicht sonderlich beeindrucken ließen, wie Amerikaner ihren eigenen, selbst bezahlten Besitz zerstörten.

Gut, aber als Deming nach Japan ging, wußte noch niemand, wie sehr Japan aus der Asche emporsteigen würde. MacArthur wollte sicher nicht, daß Detroit eine Geisterstadt verlassener Fabriken würde, aber der Mann wollte eben telefonieren!

Wie gesagt, die Japaner waren sehr daran interessiert, was Deming ihnen beizubringen hatte. Er war in Qualitätsmanagementkreisen durchaus bekannt, nur die praktische Umsetzung konnte er in Amerika nie wirklich angehen. Es begann mit der Ingenieursvereinigung, er knüpfte Kontakte zum mittleren Management, später zum Topmanagement, und er lehrte sie das, woran er glaubte. Die Führungsriege (sprich: CEOs der großen japanischen Konglomerate) besuchten seine Seminare. Er war ein Star, und er erhilt unzählige Auszeichnungen und Ehrungen in Japan.

Deming hat all die neumodischen Dinge, mit denen die Japaner ihr Wirtschaftswunder vollbrachten, nicht erfunden. Er hat weder das Toyota Production System erfunden, noch Kanban, noch Total Quality Management.

Aber seine Schüler taten es.

All dies fand hauptsächlich von den Fünfzigern bis in die Achtziger statt. Auf breite Anerkennung in Amerika mußte Deming aber noch bis viel später – kurz vor seinem Tod – warten.

Der Demingkreis

Diese Japaner kamen nach ihm, aber auf wessen Schultern stand Deming?

Walter Shewhart.

Vieles von dem, wofür Deming bekannt ist, gab es bereits in der ein oder anderen Form bei Shewhart. Was kein Zufall ist, Deming studierte unter Shewhart und arbeitete später mit ihm zusammen. Und am meisten bekannt von Shewharts Arbeit ist der Shewhartkreis:

Plan – Do – Check – Act. Eine Grundlage des Projektmanagements. Auch PDCA-Kreis genannt, PDCA-Zyklus, Scrum-Sprint oder – Überraschung! – der Deming-Kreis.

Deming selbst nannte dieses Konzept stets „Shewhartkreis“.

Doch Deming änderte den Shewhartkreis auch in einer Hinsicht. Er strich “Check” und ersetzte es durch “Study”. Es scheint unwesentlich, aber Deming bestand darauf. Für seine Ohren klang “check” wie “inspect”. Deming haßt Inspektion. Mit Inbrunst. Lesen Sie seine Bücher, er hört gar nicht mehr auf, über das Grundübel der Inspektion zu schreiben.

You can not inspect quality into a product.

Aber was ist Inspektion? Inspektion ist, wenn Sie ein gefertigtes Teil nehmen (eine bestückte Leiterplatte, ein Auto, etc.), seine Eigenschaften vermessen und diese mit einer Spezifikation vergleichen. Auf der Basis dieses Vergleichs entscheiden Sie dann, ob Sie das Teil ausliefern oder wegwerfen (oder einschmelzen und neu fertigen) oder reparieren.

Die Idee dabei ist, wegzuwerfen, was außerhalb der Spezifikation liegt. Sie beginnen mit der Spezifikation und fertigen “to spec”.

Eliminate the need for inspection on a mass basis by building quality into the product in the first place.

Dieses letzte Zitat ist leicht miszuverstehen. Deming sagt nicht „fertigen Sie einfach Teile, schauen Sie diese niemals an und warten Sie einfach auf Kundenreklamationen“. Wenn Sie Ihre Fertigung aufsetzen, werden Sie viele Versuche brauchen, und Sie werden nach jedem Versuch genau anschauen wollen, was das Ergebnis ist. In der laufenden Produktion möchten Sie ebenfalls Stichproben Ihres Fertigungsoutput ziehen und bewerten. Aber Sie sollte nicht jedes Teil vermessen und jeweils für jedes Teil einzeln entscheiden, ob Sie es verkaufen oder wegwerfen.

Was sonst sollen Sie tun?

Statistische Prozeßlenkung

Der Produktionsprozeß kann anhand einer Produktionsfunktion P(μ,σ) modelliert werden, die annähernd normalverteilt ist, mit μ als Erwartungswert und σ als Standardabweichung.

Produktionsfunktion und Verlustfunktion

Warum eine Normalverteilung? Weil es in der Praxis ganz gut zu funktionieren scheint (der zentrale Grenzwertsatz sagt uns, daß wir unter recht laxen Bedingungen eine annähernde Normalverteilung sehen werden). Und weil es „schöne“ Theoreme für die Normalverteilung gibt, so daß wir damit praktische Dinge errechnen können.

Auf der x-Achse ist ein (kontinuierlicher) Meßwert abgetragen, vielleicht die Länge oder das Gewicht des produzierten teils. Der Nullpunkt zeigt an, was die „gewollte“ Länge oder das „gewollte“ Gewicht ist, also was der Produktionsprozeß tun soll.

Auf der y-Achse ist die Anzahl der produzierten Teile mit dem entsprechenden X-Meßwert abgetragen.

Das ist natürlich eine Vereinfachung. Ihr Produktionsprozeß mag nicht normalverteilt sein, sein Graph mag asymmetrisch, schief oder mit Sprüngen darin sein. Für eine allgemeine Erläuterung der Methode spielt das keine Rolle.

Zusätzlich zur Produktionsfunktion gibt es eine Verlustfunktion L(x). Es spielt eine Rolle, wir lang oder schwer das Teil ist. Wenn es nahe am gewünschten Wert ist, ist es vermutlich okay. Wenn es weit entfernt ist, dann ist es wohl wertlos und unbrauchbar. Hier ist als Verlustfunktion eine Parabel gewählt.

Auch diese Vereinfachung muß in der realen Welt nicht zutreffen. Wenn Sie den Bus erreichen möchten und eine halbe Stunde zu früh sind, ist das ärgerlich. Wenn Sie fünf Minuten zu früh sind, ist es gut. Wenn Sie nur eine Minute zu früh sind, ist es besser, aber nicht viel besser. Aber wenn Sie eine Minute zu spät sind, haben Sie den Bus verpaßt und warten eine geschlagene Stunde. In diesem Beispiel wäre Ihre „Verlustfunktion“ in etwa eine Parabel links von μ, aber direkt rechts davon ein Sprung zum Maximum von L(x).

Allgemein gesprochen muß die Parabel der Verlustfunktion auch nicht um den Erwartungswert der Produktionsfunktion zentriert sein.

Eine neue Funktion f(μ,σ) kombiniert nun die Produktionsfunktion und die Verlustfunktion, indem sie beide Funktionen miteinander multipliziert und über den gesamten Definitionsbereich integriert. Sie wägt die Zahl der produzierten Teile an einem bestimmten x in der einen Hand und den dadurch verursachten Verlust an demselben x in der anderen Hand, und bestimmt so einen Gesamtverlust. Und nun haben Sie ein Optimierungsproblem: wann wird f minimal?

Nebenbei: Ich würde vermuten, daß man etwas mehr mathematische Maschinerie benötigt, beispielsweise eine echte Faltung, oder? Sofern ich seine Notation nicht völlig mißverstehe, verwendet Deming aber tatsächlich eine Multiplikation.

Produktionsfunktion und Verlustfunktion (zentriert)

Für übliche Funktion P und L (und besonders in diesem vereinfachten Beispiel) ist offensichtlich: μ sollte dort sitzen, wo die Verlustfunktion ihr Minimum hat. Wenn dies der Fall ist, verursachen die meisten Teile nur geringe Verluste, und die Teile, die relevante Verluste verantworten, sind nur wenige.

Eine weitere Möglichkeit ist, den Produktionsprozeß zu verbessern, so daß der Graph der Produktionsfunktion enger wird, oder in anderen Worten, so daß die Standardabweichung (und damit die Varianz) kleiner wird. Teile weit jenseits von μ sind nach wie vor verlustreich, aber ihre Anzahl nimmt deutlich ab.

Normalerweise bringt es mehr, den Prozeß auf die gewünschte Länge, Gewicht, etc. der Teile zu zentrieren, als den Prozeß enger zu machen, jedoch um das falsche μ herum. Also lehrt Deming uns, zunächst den Prozeß zu zentrieren (und damit μ an die Stelle zu legen, wo es gewünscht ist) und erst dann daran zu arbeiten, die Standardabweichung zu verringern.

Was bedeutet „den Prozeß zentrieren“? Zunächst bedeutet es, die Produktionsanlage korrekt einzurichten. Wenn die Maschine auf eine Teilelänge von fünf Zentimetern eingestellt ist, mag sie dennoch ein paar Teile produzieren, die nur vier Zentimeter lang sind. Aber wenn Sie tatsächlich vier Zentimeter benötigen, wäre es dumm, sich auf die Standardabweichung zu verlassen. Stattdessen sollten Sie die Maschine auf vier Zentimeter einstellen. Die allgemeine Bedienung der Maschine gehört auch in diese Kategorie. Wenn der Maschiennführer nicht verstanden hat, wie er die Maschine korrekt bedient, kann das Ergebnis systematisch falsch sein.

DieStandardabweichung zu verringern dreht sich eher um Instandhaltung und Wartung. Muß die Maschine mal wieder geölt werden? Gibt es defekte Teile, die ersetzt werden sollten? Aber auch hier spielt die Bedienung eine Rolle. Ein Maschinenführer mag die Maschine anders bedienen als ein anderer. Es ist wichtig, eine offizielle Art der Bedienung festgelegt zu haben und seine Arbeiter richtig zu schulen, wenn eine geringe Standardabweichung herauskommen soll.

Fehlerarten

Lassen Sie uns über fehler sprechen. Es gibt zwei grundlegend verschiedene Kategorien von Fehlern, und Deming ist unnachgiebig, wenn es darum geht herauszufinden, zu welcher Kategorie ein beobachteter Fehler gehört: es gibt besondere Fehler (“special causes of variation”) und gewöhnliche Fehler (“common causes of variation”).

Wenn Sie mit sicherheitsgerichteten System arbeiten, mag Sie die Begrifflichkeit kurz stutzen lassen. “Common causes” in diesem Sinne sind nicht Fehler gemeinsamer Ursache, wie ein einzelner elektromagnetischer Puls, der in zwei verschiedene Leiter einkoppelt. Hier bedeutet “common“ einfach „gewöhnlich“, „normal“.

Warum ist es wichtig, in welche Kategorie ein Fehler gehört? Weil sie grundverschieden behandelt werden müssen!

Gewöhnliche Fehler (bei Shewhart: “chance causes” – Zufallsfehler) passieren zufällig. Sie stellen die normale Prozeßstreuung dar. Sie passieren ständig, und es gibt keine einzelne spezifische Handlung, um sie zu beseitigen.

Besondere Fehler (bei Shewhart: “assignable causes” – zuordenbare Fehler) werden häufig durch einen Arbeiter auf unterster Ebene verursacht. Der Begriff “assignable cause” ist recht gut, weil er die Intuition „es gibt etwas oider jemanden, auf den wir zeigen können“ abbildet.

Beispielsweise könnte ein Bagger am falschen Ort baggern und plötzlich hat Ihre Fabrik keinen Strom mehr. Das wäre ein klassischer besonderer Fehler. Sie können den Schuldigen identifizieren: „der Bagger“, „der Baggerfahrer“, „der Planer“ oder vielleicht auch „derjenige, der nicht daran gedacht hat, eine redundante Stromversorgung vorzusehen“. Es passiert nicht regelmäßig, und Sie würden es wohl kaum als Teil Ihres normalen Produktionsprozesses bezeichnen.

Doch wenn Sie ein großes, landesweit operierendes Tlekommunikationsunternehmen sind, dann ist „Bagger trennt Kabel“ vermutlich kein besonderer Fehler, sondern eher „Dienstag“. Es passiert oft genug, daß Sie es nicht als einzigartigen Akt Gottes betrachten sollten, sondern als ein Problem, das Sie statistisch modellieren können, und wo die Vermeidung dieses Fehlers vermutlich zu Ihrem normalen Geschäft und seinen Prozessen gehört.

Diese besonderen Fehler können Sie als unvorhersehbare und statistisch unmodellierbare Fehlerquelle betrachten, die die gewöhnlichen Fehler überlagern. Dadurch werden die gewöhnlichen Fehler schwierig zu modellieren und zu behandeln.

Wie behandeln Sie also all diese Fehler?

Für besondere Fehler ist es einfach: Sie eliminieren sie einen nach dem anderem, denn ansonsten ist ihr Prozeß unvorhersehbar und damit außer Kontrolle. Sie können nicht durch eine Weisung von oben behoben werden, sondern sie müssen auf unterer Ebene (wo sie üblicherweise auftreten) im Einzelfall behoben werden. Da es sich um zufällige Ereignisse handelt, werden Sie niemals alle besonderen Fehler für immer beheben, aber Sie müssen es versuchen, so gut es geht.

Gewöhnliche Fehler werden ganz anders behandelt: Sie beherrschen Sie, indem Sie Ihren Prozeß unter Kontrolle bringen. Das bedeutet, den Prozeß zu zentrieren und die Standardabweichung zu verringern. Und dann kommt der allerwichtigste Teil.

Finger weg!

Ja, wirklich. Sie behandeln gewöhnliche Fehler alle auf einmal, indem Sie den Prozeß unter Kontrolle bringen. Sie versuchen niemals, einen dieser Fehler gesondert zu beheben.

Aber was passiert, wenn Sie einen gewöhnlichen Fehler für sich allein behandeln? Gut, daß Sie fragen, denn jetzt kann ich Ihnen etwas über Demings zweites berühmtes Experiment erzählen, das Trichterexperiment.

Das Trichterexperiment

Im Trichterexperiment legte Deming ein Blatt Papier auf den Tisch, markierte einen Punkt in der Mitte als Ziel (nennen wir ihn Z) und hielt einen Trichter etwas über den Zielpunkt. Dann warf er eine Kugel durch den Trichter und markierte, wo die Kugel aufs Papier gefallen war. Üblicherweise war das nicht genau der Zielpunkt, sondern knapp daneben, nennen wir diesen Punkt T.

Und nun gibt es vier verschiedene Strategien, mit denen er fortfuhr. Jede dieser Strategien bestimmt, wir er den Trichter nach jeder Kugel bewegte (und legte damit einen neuen Zielpunkt Z‘ fest). Er warf wiederholt Kugeln in den Trichter, der jeweils gemäß der Strategie bewegt wurde, und markierte die weiteren Treffpunkte mit T‘, T“ und so weiter. Nach ein paar Dutzend Kugeln sah man dann ein Verteilungsmuster.

Die erste Strategie ist genau die, die Deming für gewöhnliche Fehler empfiehlt: Finger weg! Der Trichter bleibt, wo er ist, also Z = Z‘ = Z“.

Experiment 1

Die Zielverteilung ist kreisförmig und ziemlich eng.

Die zweite Strategie spiegelt wider, was viele Menschen tun: sie bewegen den Trichter anhand einer vermuteten systematischen Abweichung. Wenn eine Kugel den Punkt T trifft und dieser Punkt T drei Millimeter links vom Zielpunkt Z ist, dann bewegen sie den Trichter drei Millimeter nach rechts. Der neue Zielpunkt Z‘ ist also drei Millimeter rechts von Z.

Das ist wie Artillerieschießen. Über den Feind hinweggeschossen? Ziel das nächste Mal kürzer! Es ist auch, was passiert, wenn man gewöhnliche Fehler als besondere Fehler behandelt.

Experiment 2

Das resultierende Muster ist nach wie vor kreisförmig, hat aber eine um etwa 30% größere Fläche.

Die dritte Strategie ähnelt der zweiten. Jedoch vergleicht man nicht den Treffpunkt T mit dem letzten Zielpunkt, sondern immer mit dem Originalzielpunkt Z in der Mitte des Blatts Papier.

Experiment 3

Es entsteht ein Zielmuster, das ein wenig wie ein Propeller aussieht. Der Zielpunkt oszilliert zwischen zwei Quadranten, und das gesamte Experiment divergiert. Das bedeutet, der Fehler wird größer und größer.

Die vierte Strategie sieht ähnlich wild aus. Deming zielte einfach immer auf den letzten Treffpunkt, also Z‘ = T. Wieso sollte man so etwas tun? Sie würden es natürlich nicht tun, in diesem Experiment. Aber es ist zienmlich genau das Spiel Stille Post. Sie zielen dorthin, was der letzte Mitspieler Ihnen gesagt hat. Oder, in anderen Worten, dieses Verhalten ist genau das, wenn man jemandem etwas ohne ein stabiles und gemeinsames Lehrbuch beibringt. Der eine Maschinenführer lernt den seinen Nachfolger an, der Nachfolger versteht das meiste, aber nicht alles ganz exakt. Wenn der Nachfolger nun wiederum seinen Nachfogler anlernt, und der ursprüngliche Maschinenführer nicht mehr zur Verfügung steht, dann divergiert das Training genau wie die Kugeln hier.

Experiment 4

Im Ergebnis sieht das Muster so wie hier aus: es divergiert schnell, und im allgemeinen auch in ziemlich direkter Linie in einer Richtung.

Verschiedene Fehlerarten unterscheiden

Gewöhnliche Fehler und besondere Fehler können mathematisch auseinandergehalten werden. Die Basis für diese Unterscheidung ist die Qualitätsregelkarte, auf englisch “control chart” oder zuweilen auch “Shewhart chart” oder “process-behaviour chart”.

Die y-Achse zeigt eine kontinuierliche Messung, 0 korrespondiert mit dem Ideal. Es gibt ein “upper control limit” (UCL) und ein “lower control limit” (LCL). Beide sitzen respektive bei +3σ und -3σ.

UCL und LCL werden aus echten Prozeßdaten errechnet! Sie sind keine Spezifikationsgrenzen.

Using the manufacturer’s claim as the lower control limit (action limit) is confusing special causes with common causes, making matters worse, guaranteeing trouble forever.
A wiser procedure would be to get statistical control of the machine, under the circumstances in place. Its performance might turn out to be 90 per cent of the maximum speed as specified by the manufacturer, or 100 per cent, or 110 per cent. The next step would be the continual improvement of the machine and use thereof.

Soweit ich es verstehe, gibt es kein hartes Theorem, warum UCL und LCL bei +/-3σ sitzen müssen, sondern es gibt empirische Evidenz für diese Schwellen und auch statistische Argumente, warum sie ungefähr dort liegen sollten.

Sie plotten Ihre Meßwerte in die Qualitätsregelkarte. Dies ist keine Inspektion, die Deming ja so verachtet. Sie prüfen nicht einzelne Teile gegen definierte Toleranzen und entscheiden daraus, welche teile Sie behalten. Sie plotten das Verhalten Ihres Prozesses. Jetzt ist es einfach: alles innerhalb des +/-3σ-Bandes ist ein gewöhnlicher Fehler, alles außerhalb dieses Bandes ist ein besonderer Fehler.

Nur daß das zu einfach wäre und die Wirklichkeit nicht angemessen abbilden würde. Deswegen wurden verschiedene Regelwerke entwickelt, die beiden bekanntesten sind die Western Electric Rules und die Nelson Rules. Beide sind etwas komplizierter als nur „drinnen oder draußen?“, sie schauen auf bestimmte Läufe von Meßwerten. Zum Beispiel sieht eine Meßreihe, die abwechselnd zwischen der positiven und der negativen Seite der y-Achse springt, nicht nach einem gewöhnlichen Fehler aus, sondern eher nach einem besonderen Fehler, der eine Oszillation bewirkt.

Ein Prozeß heißt „unter Kontrolle“, wenn nur gewöhnliche Fehler übrigbleiben. Es mag kein besonders guter Prozeß sein, er mag nicht zentriert sein or er mag eine große Standardabweichugn aufweisen, aber er ist unter Kontrolle und statistisch modellierbar. Das ist ein großes Plus, und nun können Sie Ihren Prozeß verbessern.

Doch wenn die Qualitätsregelkarte zeigt, daß die meisten Ihrer Fehler besondere Fehler sind, haben Sie ein Problem: Ihr Prozeß ist am Anschlag und definitiv nicht unter Kontrolle. Es mag eine alte, abgenutzte Maschine sein, ungenügend ausgebildete oder gestreßte Arbeiter, aber Sie müssen den Prozeß erstmal unter Kontrolle bekommen, indem Sie die besonderen Fehler zuerst angehen. Erst dann können sie Ihren Prozeß verbessern.

Zusammenfassung

  • Systeme sind wichtig
  • Von absoluten Spezifikationsgrenzen und Toleranzen hin zu Statistischer Prozeßlenkung
  • Gewöhnliche Fehler: Prozeß verbessern, sonst nichts
  • Besondere Fehler: Behandlung im Einzelfall
  • Unterscheiden: durch die Qualitätsregelkarte