Direkt zum Inhalt

Effiziente Prüfstrategien für elektronische Komponenten



Wenn ein Radioempfänger bei den Frequenzen 88 und 98 Megahertz zufriedenstellend funktioniert, tut er das für gewöhnlich auch bei allen dazwischenliegenden Werten. Es wäre schon ein sehr exotischer Fehler, wenn das Gerät zum Beispiel ausgerechnet zwischen 93,5 und 94,5 Megahertz versagen würde.

Bei einem digitalen Bauteil, etwa einem Mikroprozessor, könnte ein derart begrenzter Ausfall dagegen ohne weiteres vorkommen. Wenn im Inneren einer sehr komplizierten Schaltung durch einen Fertigungsfehler ein einziger Transistor ungenau arbeitet, äußert sich das möglicherweise lediglich in einem von 100000 Fällen: zu häufig für den Betrieb, aber so selten, daß es nur bei extrem gründlichen Tests auffällt. Deshalb machen die Kosten für die Funktionsprüfung bei komplizierten Bauteilen heutzutage manchmal mehr als 20 Prozent des Verkaufspreises aus.

Zum Beispiel kann ein 16-Bit-Analog-Digital-Umwandler (ADU), wie er üblicherweise in der Bildverarbeitung verwendet wird, insgesamt 216=65536 mögliche Ausgangssignale (Folgen von 16 Bits) liefern. Eigentlich müßte man zu jedem dieser sogenannten Prüfwörter die entsprechenden Eingangs-Analogsignale für das Gerät bestimmen und sich vergewissern, daß sie mit den Sollwerten übereinstimmen. Ein solch umfassender Test würde jedoch Stunden auf einem automatischen Prüftisch in Anspruch nehmen und die Herstellungskosten vervielfachen.

Tatsächlich wäre diese Gründlichkeit auch unangemessen, weil sie auf allzu pessimistischen Annahmen beruht. Die Fehler, die bei der Fertigung des Bauteils auftreten können, sind nämlich in der Regel nicht unabhängig voneinander. Ein ADU besteht zwar aus vielen hundert Elementen (jeder Widerstand, jeder Kondensator, jede Verbindung könnte defekt sein und ist deshalb mitzuzählen), aber diese werden sämtlich in einigen wenigen Fertigungsschritten auf eine Siliciumoberfläche aufgedampft oder eingeätzt. Ein Fehler bei einem dieser Schritte betrifft typischerweise mehrere Elemente auf einmal und macht sich darum auch beim Testen mehrfach bemerkbar. Also muß man das Bauteil nicht erschöpfend überprüfen, sondern kann sich mit einer Auswahl an Messungen begnügen – wenn man eine gewisse statistische Unsicherheit in Kauf zu nehmen bereit ist. Aber wie trifft man die Auswahl?

Eine Gruppe von Elektronikingenieuren am amerikanischen Normeninstitut NIST (National Institute of Standards and Technology) in Gaithersburg bei Washington hat in den letzten Jahren eine Lösung dieses Problems erarbeitet. Bei dieser umfassenden Prüfstrategie für elektronische Komponenten wird der größte Teil der Präzisionsmessungen durch Berechnungen ersetzt, die nur einmal für jede Baureihe durchzuführen sind. Trotzdem ist die Methode annähernd so genau wie eine erschöpfende Prüfung, und das Maß an Ungenauigkeit läßt sich so präzise beschreiben wie die Auswirkungen einzelner Meßfehler.

Das Verfahren unterstellt, daß die Abweichung vom Sollverhalten – entsprechend der geringen Anzahl der Herstellungsschritte – nur von relativ wenigen Fehlermustern bestimmt wird, die vom Gerätetyp und vom Herstellungsvorgang abhängen. Ihre Gesamtheit, das sogenannte Fehlermodell, ist eine Eigenschaft der ganzen Baureihe und verhält sich linear: Ein einzelnes Gerät zeigt im wesentlichen eine Überlagerung der Fehlermuster, und man muß nur ermitteln, wie stark jedes davon ausgeprägt ist. Diese Koeffizienten lassen sich mit einigen wenigen wohlgewählten Messungen ausreichend genau bestimmen (Bild auf Seite 22).

Aber wie kommt man an ein Fehlermodell? Man kann dazu den Schaltplan des Geräts und die physikalischen Umstände des Herstellungsprozesses analysieren sowie auf Erfahrungswerte zurückgreifen. Die resultierenden Modelle enthalten jedoch häufig zu viele oder zu wenige Fehlermuster, und für Geräte mit Bauteilen von Zulieferern existiert oft kein kompletter Schaltplan.

Verläßlicher ist ein anderer Zugang: Man prüft eine kleine, aber repräsentative Anzahl von Geräten einer Baureihe erschöpfend und ermittelt dasjenige lineare Modell, das die gewonnenen Meßwerte – die sogenannten Lehrdaten – am besten beschreibt. Dabei wählt man die Anzahl der Fehlermuster, die man in Betracht zu ziehen bereit ist, möglichst klein, um den Rechenaufwand für die späteren Schritte zu begrenzen, aber groß genug, daß die Lehrdaten hinreichend genau reproduziert werden.

Versionen dieses Verfahrens sind unter den Namen Hauptkomponenten- oder Faktorenanalyse sowie Karhunen-Loeve-Zerlegung in Statistik, Psychologie und Physik weit verbreitet. Es hat den Vorteil, daß man an die innere Struktur der Untersuchungsobjekte vorab keinen Gedanken verschwenden und keine – möglicherweise ungerechtfertigten – Annahmen darüber machen muß. Ein Ingenieur kann ein Fehlermodell aufstellen, ohne je das Schaltbild genauer studiert zu haben.

Anschließend muß eine kleine Menge von Prüfwörtern ausgewählt werden, bei denen sich die verschiedenen Fehlermuster möglichst unabhängig voneinander zu erkennen geben. Mit ihnen testet man dann alle weiteren Geräte, und aus den Ergebnissen läßt sich jeweils deren gesamtes Fehlerverhalten berechnen. Alle diese Schritte werden auf einem Computer durchgeführt und sind rechnerisch recht aufwendig. Doch lassen sich die beiden ersten (Modellbestimmung und Prüfwortauswahl) ein für allemal vorab ausführen, und nur der letzte (Fehlervorhersage) geschieht online.

Im Endeffekt werden also umfassende Messungen durch Berechnungen ersetzt. Dabei gehen unvermeidlich Ungenauigkeiten in die Prozedur ein: Meßfehler bei der Erfassung der Lehrdaten sowie Schätz- und Abbruchfehler aufgrund ungenauer Identifizierung beziehungsweise Vernachlässigung von Fehlermustern. Eine wesentliche Schwierigkeit bei der Erarbeitung des gesamten Verfahrens bestand darin, die Auswirkungen all dieser Fehler zu verfolgen. Am Ende steht eine Aussage der Art, daß die Unsicherheit des berechneten Verhaltens nach Art und Größe mit der Meßungenauigkeit vergleichbar ist und ebenso präzise beschrieben werden kann.

Die Arbeitsgruppe am NIST hat ein Programmpaket namens HELP (High-Dimensional Empirical Linear Prediction) für diese Aufgaben entwickelt und eine Reihe von Geräten (ADUs, Mehrbereichsmeßinstrumente und andere) damit erfolgreich geprüft. Es erlaubt, Fehlermodelle automatisch zu konstruieren, eine vorher bestimmte Zahl von Prüfwörtern auszuwählen und das Fehlerverhalten eines Gerätes aus diesen Messungen zu berechnen. Außerdem bietet es Diagnosemethoden, um zum Beispiel die Unsicherheiten des berechneten Verhaltens abzuschätzen oder unerwartete Fehlermuster zu entdecken, die ein vorgegebenes Fehlermodell nicht erklären kann. Es hat eine graphische Benutzeroberfläche, läuft auf jedem modernen PC und wird bereits von mehreren amerikanischen Elektronikherstellern verwendet.


Aus: Spektrum der Wissenschaft 5 / 1998, Seite 22
© Spektrum der Wissenschaft Verlagsgesellschaft mbH
5 / 1998

Dieser Artikel ist enthalten in Spektrum der Wissenschaft 5 / 1998

Lesermeinung

Beitrag schreiben

Wir freuen uns über Ihre Beiträge zu unseren Artikeln und wünschen Ihnen viel Spaß beim Gedankenaustausch auf unseren Seiten! Bitte beachten Sie dabei unsere Kommentarrichtlinien.

Tragen Sie bitte nur Relevantes zum Thema des jeweiligen Artikels vor, und wahren Sie einen respektvollen Umgangston. Die Redaktion behält sich vor, Leserzuschriften nicht zu veröffentlichen und Ihre Kommentare redaktionell zu bearbeiten. Die Leserzuschriften können daher leider nicht immer sofort veröffentlicht werden. Bitte geben Sie einen Namen an und Ihren Zuschriften stets eine aussagekräftige Überschrift, damit bei Onlinediskussionen andere Teilnehmer sich leichter auf Ihre Beiträge beziehen können. Ausgewählte Lesermeinungen können ohne separate Rücksprache auch in unseren gedruckten und digitalen Magazinen veröffentlicht werden. Vielen Dank!