Intervallarithmetik bezeichnet in der Mathematik eine Methodik zur automatisierten Fehlerabschätzung auf Basis abgeschlossener Intervalle. Dabei werden nicht genau bekannte reelle Größen betrachtet, die aber durch zwei Zahlen und eingegrenzt werden können. Dabei kann zwischen und liegen oder auch einen der beiden Werte annehmen. Dieser Bereich entspricht mathematisch gesehen dem Intervall . Eine Funktion , die von einem solchen unsicheren abhängt, kann nicht genau ausgewertet werden. Es ist schließlich nicht bekannt, welcher Zahlenwert innerhalb von für eigentlich eingesetzt werden müsste. Stattdessen wird ein möglichst kleines Intervall bestimmt, das gerade die möglichen Funktionswerte für alle enthält. Durch gezielte Abschätzung der Endpunkte und erhält man eine neue Funktion, die wiederum Intervalle auf Intervalle abbildet.

Dieses Konzept eignet sich unter anderem zur Behandlung von Rundungsfehlern direkt während der Berechnung und falls Unsicherheiten in der Kenntnis der exakten Werte physikalischer und technischer Parameter vorliegen. Letztere ergeben sich oft aus Messfehlern und Bauteil-Toleranzen. Außerdem kann Intervallarithmetik dabei helfen, verlässliche Lösungen von Gleichungen und Optimierungsproblemen zu erhalten.

Als Beispiel soll hier die Berechnung des Körpermasseindex (BMI von engl. Body Mass Index) betrachtet werden. Der BMI ist die Körpermasse in Kilogramm geteilt durch das Quadrat der Körpergröße in Metern. Zur Illustration soll die Gewichtsbestimmung (eigentlich Massebestimmung) mit Hilfe einer Badezimmerwaage erfolgen, bei der das Gewicht auf ein Kilogramm genau abgelesen werden kann. Es werden also niemals Zwischenwerte bestimmt – etwa 79,6 kg oder 80,3 kg –, sondern auf ganze Zahlen gerundete Angaben. Dabei ist es natürlich sehr unwahrscheinlich, dass man wirklich exakt 80,0 kg wiegt, wenn dies angezeigt wird. Bei üblicher Rundung auf den nächstliegenden Gewichtswert liefert die Waage 80 kg für jedes Gewicht zwischen 79,5 kg und 80,5 kg. Den entsprechenden Bereich aller reellen Zahlen, die größer oder gleich 79,5 und gleichzeitig kleiner oder gleich 80,5 sind, kann einfach als Intervall aufgeschrieben werden. Um Verwechslungen zu vermeiden setzt man meistens einen Punkt statt eines Kommas als Dezimaltrennzeichen.

Für einen Menschen, der 80 kg wiegt und 1,80 m groß ist, liegt der BMI bei ungefähr 24,7. Bei einem Gewicht von 79,5 kg und gleicher Körpergröße müsste aber nur ein Wert von 24,5 angenommen werden, wohingegen 80,5 kg schon fast 24,9 entsprechen. Der tatsächliche BMI liegt also in dem Bereich . In diesem Fall kann der Fehler in der Praxis zwar noch vernachlässigt werden, jedoch ist das nicht bei allen Rechnungen der Fall. Beispielsweise schwankt das Gewicht auch im Laufe eines Tages, so dass der BMI hier durchaus zwischen 24 (noch normalgewichtig) und 25 (schon übergewichtig) variieren kann. Ohne detaillierte Rechnung können aber nicht immer von vornherein Aussagen darüber getroffen werden, ob ein Fehler letztendlich groß genug ist, um maßgeblichen Einfluss zu haben.

In der Intervallarithmetik wird der Bereich möglicher Ergebnisse ausdrücklich berechnet. Vereinfacht gesagt, rechnet man nicht mehr mit Zahlen, sondern mit Intervallen, die nicht genau bekannte Werte repräsentieren. Ähnlich wie ein Fehlerbalken um einen Messwert drückt ein Intervall das Ausmaß der Unsicherheit bezüglich der zu berechnenden Größe aus. Hierfür werden einfache Rechenoperationen, wie die Grundrechenarten oder trigonometrische Funktionen, für das Rechnen mit Intervallen neu definiert, um äußere Grenzen eines gesuchten Wertebereiches zu erhalten.

Einführung

Das Hauptaugenmerk bei der Intervallarithmetik liegt darauf, auf möglichst einfache Art und Weise obere und untere Schranken für den Wertebereich einer Funktion in einer oder mehreren Variablen zu bestimmen. Dabei müssen diese Schranken nicht unbedingt dem Supremum bzw. Infimum entsprechen, da die genaue Berechnung dieser Werte oft zu schwierig ist. (Es lässt sich zeigen, dass diese Aufgabenstellung im Allgemeinen NP-schwer ist.)

Üblicherweise beschränkt man sich auf die Behandlung abgeschlossener, reeller Intervalle, also Mengen der Form

,

wobei auch und zulässig sind. Dabei entsprechen und den meist halboffen geschriebenen Intervallen, die alle reellen Zahlen kleiner oder gleich bzw. größer oder gleich umfassen. Entsprechend bezeichnet das Intervall die gesamte reelle Achse.

Wie beim klassischen Rechnen mit Zahlen muss zunächst einmal definiert werden, wie die arithmetischen Operationen und elementaren Funktionen auf Intervalle anzuwenden sind. Komplexere Funktionen können dann aus diesen Grundelementen zusammengesetzt werden (Lit.: Kulisch, 1989).

Grundrechenarten

Zu Erläuterung wird nochmal auf das Beispiel vom Anfang zurückgegriffen. Bei der Bestimmung des Körpermasseindex spielt neben dem Gewicht auch die Körpergröße eine Rolle. Diese wird üblicherweise nur in ganzen Zentimetern gemessen werden: eine Angabe der Körpergröße von 1,80 Meter bedeutet also eigentlich eine Körpergröße irgendwo zwischen 1,795 m und 1,805 m. Diese Ungenauigkeit muss zusätzlich zu der Schwankungsbreite beim Gewicht, das zwischen 79,5 kg und 80,5 kg liegt, eingerechnet werden. Für den BMI muss nun wie gesagt die Körpermasse in Kilogramm durch das Quadrat der Körpergröße in Metern geteilt werden. Sowohl für 79,5 kg und 1,795 m als auch für 80,5 kg und 1,805 m ergibt sich dafür ungefähr 24,7. Es muss nun aber auch berücksichtigt werden, dass die fragliche Person möglicherweise nur 1,795 m groß ist bei einem Gewicht von 80,5 kg – oder auch 1,805 m bei 79,5 kg. Auch die Kombinationen aller möglichen Zwischenwerte müssen in die Betrachtung eingehen. Mit Hilfe der im Folgenden festgelegten Intervallarithmetik kann der intervallwertige BMI

tatsächlich ausgerechnet werden.

Eine Operation zwischen zwei Intervallen, wobei beispielsweise für Addition oder Multiplikation steht, muss die Bedingung

erfüllen. Für die vier Grundrechenarten ergibt sich daraus

falls zulässig ist für alle und .

Für praktische Anwendungen lässt sich dies noch weiter vereinfachen:

  • Addition:
  • Subtraktion:
  • Multiplikation:
  • Division: , wobei falls .

Für die Division durch ein Intervall, das die Null enthält, definiert man zunächst einmal

und .

Für gilt , so dass man eigentlich setzten müsste. Dadurch verliert man allerdings die Lücke und damit wertvolle Informationen. Üblicherweise rechnet man daher mit den Teilmengen und einzeln weiter.

Weil innerhalb einer Intervallrechnung auch mehrere solcher Aufspaltungen auftreten können, ist es manchmal sinnvoll, das Rechnen mit sogenannten Multi-Intervallen der Form zu systematisieren. Die entsprechende Multi-Intervall-Arithmetik pflegt dann eine disjunkte Menge von Intervallen und sorgt dann beispielsweise auch dafür, sich überschneidende Intervalle zu vereinigen (Lit.: Dreyer, 2005).

Da man eine Zahl als das Intervall interpretieren kann, erhält man sofort eine Vorschrift zur Kombination von intervall- und reellwertigen Größen.

Mit Hilfe dieser Definitionen lässt sich bereits der Wertebereich einfacher Funktionen, wie bestimmen. Setzt man beispielsweise , und , so ergibt sich

.

Interpretiert man als Funktion einer Variablen mit intervallwertigen Parametern und , dann lässt sich die Menge aller Nullstellen dieser Funktionenschar leicht bestimmen. Es gilt dann

,

die möglichen Nullstellen liegen also im Intervall .

Wie im obigen Beispiel kann die Multiplikation von Intervallen oft auf die Multiplikation nur zweier Zahlen zurückgeführt werden. Es gilt nämlich

, falls .

Die Multiplikation lässt sich hier als Flächenbestimmung eines Rechtecks mit variierenden Kantenlängen interpretieren. Das intervallwertige Ergebnis deckt dann alle Werte von der kleinst- bis zu größtmöglichen Fläche ab.

Entsprechendes gilt, wenn eines der beiden Intervalle ganz im nicht-positiven und das andere ganz im nicht-negativen Bereich der reellen Achse liegt. Generell muss bei der Multiplikation noch beachtet werden, dass das Ergebnis sofort auf gesetzt werden muss, falls unbestimmte Werte, wie auftreten. Dies tritt z. B. bei einer Division auf, bei der Zähler und Nenner beide Null enthalten.

Notation

Um intervallwertige Größen leichter in mathematischen Formeln zu erkennen, zweckentfremdet man die eckigen Klammern zur „Markierung“.

Dementsprechend bezeichnet ein Intervall und die Menge aller reellen Intervalle wird als

abgekürzt. Für eine Box oder einen Vektor von Intervallen verwendet man zusätzlich fetten Schriftschnitt: .

Bei einer derart kompakten Notation ist zu beachten, dass nicht mit einem sogenannten uneigentlichen Intervall  verwechselt wird, bei dem obere und untere Grenze übereinstimmen.

Elementare Funktionen

Um auch Funktionen mit Intervallmethoden behandeln zu können, deren Terme sich nicht aus den Grundrechenarten ergeben, muss man auch noch weitere elementare Funktionen für Intervalle neu definieren. Dabei nutzt man vorhandene Monotonieeigenschaften aus.

Für monotone Funktionen in einer Variablen lässt sich der Wertebereich ebenfalls leicht bestimmen. Ist monoton steigend oder fallend in einem Intervall , dann gilt für alle Werte mit die Ungleichung

, bzw. .

Den Wertebereich des Intervalls erhält man durch Auswertung der Funktion an den Endpunkten und :

.

Daher lassen sich folgende Intervallisierungen elementarer Funktionen leicht definieren:

  • Exponentialfunktion: , für ,
  • Logarithmus: , für positive Intervalle und
  • Ungerade Potenzen: , für ungerade .

Es ist außerdem noch wichtig, den Wertebereich für gerade Potenzen bestimmen zu können. Im Gegensatz zur üblichen Numerik ist es hier nicht sinnvoll, die Berechnung auf die Multiplikation zurückzuführen. Beispielsweise bewegt sich für innerhalb des Intervalles , wenn . Versucht man aber durch Multiplikationen der Form zu bestimmen, so erhält man in jedem Fall als Ergebnis .

Sinnvoller ist es hier, die Parabel  als Zusammensetzung einer monoton fallenden (für ) und einer monoton steigenden Funktion (für ) zu betrachten. Es gilt also für gerade :

  • , falls ,
  • , falls ,
  • , sonst.

Allgemeiner kann man sagen, dass es für stückweise monotone Funktionen ausreicht, diese an den Endpunkten  eines Intervalls , sowie an den in  enthaltenen sogenannten kritischen Punkten auszurechnen. Die kritischen Punkte entsprechen hierbei den Stellen, an denen sich die Monotonieeigenschaften ändern.

Dies lässt sich z. B. auf Sinus und Kosinus anwenden, die zusätzlich an Stellen  bzw.  für alle ausgewertet werden müssen. Hierbei spielen höchstens fünf Punkte eine Rolle, da man als Ergebnis sofort  festlegen kann, wenn das Eingangsintervall mindestens eine ganze Periode enthält. Außerdem müssen Sinus und Kosinus lediglich an den Randpunken neu evaluiert werden, da die entsprechenden Werte an den kritischen Stellen – nämlich −1, 0, +1 – vorab abgespeichert werden können.

Intervallerweiterungen allgemeiner Funktionen

Im Allgemeinen findet man für beliebige Funktionen keine derart einfache Beschreibung des Wertebereiches. Man kann diese aber oft auf Intervalle ausdehnen. Wenn  eine Funktion ist, die einen reellwertigen Vektor auf eine reelle Zahl abbildet, dann nennt man  eine Intervallerweiterung von , wenn gilt

.

Dies definiert die Intervallerweiterung nicht eindeutig. So sind beispielsweise sowohl  als auch  zulässige Erweiterungen der Exponentialfunktion. Da möglichst scharfe Erweiterungen gewünscht sind, also solche, die so genau wie möglich den gesuchten Wertebereich approximieren, wird man in diesem Fall eher wählen, da sie sogar den exakten Bereich bestimmt.

Die natürliche Intervallerweiterung erhält man, indem man in der Funktionsvorschrift  die Grundrechenarten und elementaren Funktionen durch ihre intervallwertigen Äquivalente ersetzt.

Die Taylor-Intervallerweiterung (vom Grad ) einer mal differenzierbaren Funktion ist definiert durch

,

für ein ,

wobei das Differential -ter Ordnung von am Punkt und eine Intervallerweiterung des Taylorrestgliedes

bezeichnet.

Da der Vektor  zwischen  und  mit liegt, lässt sich ebenfalls durch  abschätzen. Üblicherweise wählt man für den Mittelpunkt des Intervallvektors und die natürliche Intervallerweiterung zur Abschätzung des Restgliedes.

Den Spezialfall der Taylor-Intervallerweiterung vom Grad bezeichnet man auch als Mittelwert-Intervallerweiterung. Für eine Intervallerweiterung der Jacobi-Matrix erhält man hier

.

Eine nichtlineare Funktion kann so durch lineare Funktionen eingegrenzt werden.

Intervallverfahren

Die Methoden der klassischen Numerik können nicht direkt für die Intervallarithmetik umgesetzt werden, da hierbei Abhängigkeiten meist nicht berücksichtigt werden.

Gerundete Intervallarithmetik

Um effizient mit Intervallen rechnen zu können, muss eine konkrete Implementierung kompatibel zum Rechnen mit Gleitkommazahlen sein. Die oben definierten Operationen basieren auf exakter Arithmetik, die bei schnellen numerischen Lösungsverfahren nicht zur Verfügung steht. Der Wertebereich der Funktion für und wäre beispielsweise . Führt man die gleiche Rechnung mit einstelliger Präzision durch, so würde das Ergebnis üblicherweise zu gerundet. Da aber würde dieser Ansatz den Grundprinzipien der Intervallarithmetik widersprechen, da ein Teil des Wertebereiches von verloren geht. Stattdessen ist hier die nach außen gerundete Lösung vorzuziehen.

Die Norm IEEE 754 definiert neben Standarddarstellungen binärer Gleitkommazahlen auch genaue Verfahren für die Durchführung von Rundungen. Demnach muss ein zu IEEE 754 konformes System dem Programmierer neben dem mathematischen Runden (zur nächsten Gleitkommazahl) noch weitere Rundungsmodi bereitstellen: immer aufrunden, immer abrunden und Rundung gegen 0 (Ergebnis betragsmäßig verkleinern).

Das benötigte nach außen Runden lässt sich also durch entsprechendes Umschalten der Rundungseinstellungen des Prozessors beim Berechnen von oberer und unterer Grenze bewerkstelligen. Alternativ kann dies durch Hinzuaddition eines geeigneten schmalen Intervalls erreicht werden.

Abhängigkeitsproblem und Einhüllungseffekt

Das sogenannte Abhängigkeitsproblem ist ein Haupthindernis bei der Anwendung der Intervallarithmetik. Obwohl der Wertebereich der elementaren arithmetischen Operationen und Funktionen mit Intervallmethoden sehr genau bestimmt werden kann, gilt dies nicht mehr für zusammengesetzte Funktionen. Falls ein intervallwertiger Parameter mehrfach in einer Rechnung auftritt, wird jedes Auftreten unabhängig voneinander behandelt. Dies führt zu einer ungewollten Aufblähung der resultierenden Intervalle.

Zur Illustration sei eine Funktion durch den Ausdruck gegeben. Der Wertebereich dieser Funktion über dem Intervall beträgt eigentlich . Um die natürliche Intervallerweiterung zu erhalten, rechnet man aber , was einen etwas größeren Bereich ergibt. In der Tat berechnet man eigentlich Infimum und Supremum der Funktion über . Hier würde man also besser eine alternative Formulierung für verwenden, die die Variable nur einmal verwendet. In diesem Fall kann man den Ausdruck einfach durch quadratische Ergänzung zu umformen.

Dann liefert die entsprechende Intervallrechnung

auch den richtigen Wertebereich.

Im Allgemeinen lässt sich zeigen, dass man tatsächlich den genauen Wertebereich erhält, wenn jede Variable nur einmal auftaucht. Allerdings lässt sich nicht jede Funktion geeignet auflösen.

Die durch das Abhängigkeitsproblem verursachte Überschätzung des Wertebereiches kann so weit gehen, dass das Resultat einen derart großen Bereich umfasst, der keine sinnvollen Schlüsse mehr zulässt.

Eine zusätzliche Vergrößerung des Wertebereichs ergibt sich aus dem Einhüllen von Bereichen, die nicht die Form eines Intervallvektors haben. Die Lösungsmenge des linearen Systems

für

ist genau die Strecke zwischen den Punkten und . Intervallmethoden liefern hier aber im besten Fall das Quadrat , das die tatsächliche Lösung einhüllt (Einhüllungs- oder „Wrapping“-Effekt).

Lineare Intervallsysteme

Ein lineares Intervallsystem besteht aus einer intervallwertigen Matrix und einem Intervallvektor . Gesucht ist dann eine möglichst schmale Box , die alle Vektoren enthält, für die es ein Paar mit und gibt, das die Gleichung

erfüllt.

Für quadratische Systeme – also für – lässt sich ein solcher Intervallvektor , der alle möglichen Lösungen enthält, sehr einfach mit dem Intervall-Gauß-Verfahren bestimmen. Hierfür ersetzt man die numerischen Operationen, die bei dem aus der linearen Algebra bekannten gaußschen Eliminationsverfahren auftauchen, durch ihre Intervallversionen. Da allerdings während der Abarbeitung dieser Methode die intervallwertigen Einträge von und mehrfach in die Rechnung eingehen, leidet dieser Ansatz sehr stark an dem Abhängigkeitsproblem. Folglich bietet sich der Intervall-Gauß nur für grobe erste Abschätzungen an, die zwar die gesamte Lösungsmenge enthalten, aber auch einen sehr großen Bereich außerhalb davon.

Eine grobe Lösung kann oft durch eine Intervallisierung des Gauß-Seidel-Verfahrens verbessert werden. Diese ist folgendermaßen motiviert: Die -te Zeile der intervallwertigen linearen Gleichung

lässt sich nach der Variablen auflösen, falls die Division erlaubt ist. Es gilt demnach gleichzeitig

und .

Man kann also nun durch

ersetzen, und so den Vektor elementweise verbessern. Da das Verfahren effizienter für diagonaldominante Matrizen ist, versucht man oft statt des Systems die durch Multiplikation mit einer geeigneten reellen Matrix entstandene Matrixgleichung

zu lösen. Wählt man beispielsweise für die Mittelpunktsmatrix , so ist eine äußere Näherung der Einheitsmatrix.

Für die oben genannten Methoden gilt allerdings, dass sie nur dann gut funktionieren, wenn die Breite der vorkommenden Intervalle hinreichend klein ist. Für breitere Intervalle kann es sinnvoll sein, ein Intervall-lineares System auf eine endliche (wenn auch große) Anzahl reellwertiger linearer Systeme zurückzuführen. Sind nämlich alle Matrizen invertierbar, so ist es vollkommen ausreichend, alle möglichen Kombinationen an (oberen und unteren) Endpunkten der vorkommenden Intervalle zu betrachten. Die resultierenden Teilprobleme können dann mit herkömmlichen numerischen Methoden gelöst werden. Intervallarithmetik wird lediglich noch benutzt, um Rundungsfehler zu bestimmen.

Dieser Ansatz ist allerdings nur für Systeme kleinerer Dimension möglich, da bei einer vollbesetzten Matrix schon reelle Matrizen invertiert werden müssen, mit jeweils Vektoren für die rechte Seite. Dieser Ansatz wurde von Jiří Rohn noch weitergeführt und verbessert.

Intervall-Newton Verfahren

Eine Intervallvariante des Newton-Verfahrens zur Bestimmung der Nullstellen in einem Intervallvektor lässt sich einfach aus der Mittelwert-Erweiterung ableiten (Lit.: Hansen, 1992). Für einen unbekannten Vektor gilt für ein festes , dass

.

Für eine Nullstelle ist , und somit muss

.

erfüllt sein. Man erhält also . Eine äußere Abschätzung von kann hierbei durch eines der linearen Verfahren bestimmt werden.

In jedem Newton-Schritt wird nun ein grober Startwert durch ersetzt und so iterativ verbessert. Im Gegensatz zum klassischen Verfahren nähert sich diese Methode von außen den Nullstellen. Daher ist garantiert, dass das Ergebnis immer alle Nullstellen im Startwert enthält. Umgekehrt hat man bewiesen, dass keine Nullstelle in hat, wenn der Newton-Schritt die leere Menge zurückliefert.

Das Verfahren konvergiert gegen eine Menge, die alle Nullstellen (innerhalb der Startregion) enthält. Durch in diesem Fall vorhandene Divisionen durch Null entstehen oft mehrere Intervallvektoren, die die Nullstellen voneinander trennen. Diese Trennung ist nicht immer vollständig und kann dann durch Bisektion forciert werden.

Als Beispiel betrachte man die Funktion , den Startwert und den Punkt . Man hat dann und der erste Newton-Schritt ist gegeben durch

.

Es gilt also für eine Nullstelle . Weitere Newtonschritte werden dann jeweils auf und getrennt angewendet. Diese konvergieren zu beliebig kleinen Intervallen um und .

Das Intervall-Newton-Verfahren lässt sich auch ohne weiteres bei dicken Funktionen anwenden, also Funktionen wie , die bereits dann Intervalle zurückliefern, wenn man reelle Zahlen einsetzt. Die Lösung besteht dann aus mehreren Intervallen .

Bisektion und Überdeckungen

Die verschiedenen Intervallmethoden liefern nur äußerst konservative Abschätzungen eines jeweils gesuchten Bereiches, da Abhängigkeiten zwischen den intervallwertigen Größen nicht ausreichend berücksichtigt werden. Das Abhängigkeitsproblem spielt aber eine desto geringere Rolle, je dünner die Intervalle sind.

Überdeckt man einen Intervallvektor durch kleinere Boxen so dass dann gilt für den Wertebereich Für die oben genannten Intervallerweiterungen gilt dann . Da oft eine echte Obermenge der rechten Seite ist, erhält man somit meist eine verbesserte Abschätzung.

Eine solche Überdeckung kann zum einen durch Bisektion generiert werden, indem man besonders dicke Elemente des Intervallvektors beispielsweise in der Mitte teilt und durch zwei Intervalle und ersetzt. Sollte das daraus folgende Resultat immer noch nicht geeignet sein, kann sukzessive weiter zerlegt werden. Hierbei gilt allerdings zu beachten, dass durch geteilte Vektorelemente eine Überdeckung aus Intervallvektoren entsteht, was den Rechenaufwand natürlich stark erhöht.

Bei sehr breiten Intervallen kann es sogar sinnvoll sein, alle Intervalle gleich in mehrere Teilintervalle mit (kleiner) konstanter Breite zu zerlegen („Mincing“). Damit spart man die Zwischenrechnung für die einzelnen Bisektionsschritte. Beide Herangehensweisen sind allerdings nur für Probleme niedriger Dimension geeignet.

Anwendung

Die Intervallarithmetik kommt auf verschiedenen Gebieten zum Einsatz, um Größen zu behandeln, für die keine genauen Zahlenwerte festgelegt werden können (Lit.: Jaulin u. a., 2001).

Rundungsfehleranalyse

Die Intervallarithmetik wird bei der Fehleranalyse angewendet, um Kontrolle über die bei jeder Berechnung auftretenden Rundungsfehler zu bekommen. Der Vorteil der Intervallarithmetik liegt darin, dass man nach jeder Operation ein Intervall erhält, welches das Ergebnis sicher einschließt. Aus dem Abstand der Intervallgrenzen kann man den aktuellen Berechnungsfehler direkt ablesen:

Fehler = für gegebenes Intervall .

Intervallanalyse bietet hierbei keinen Ersatz für die klassischen Methoden zur Fehlerreduktion, wie Pivotisierung, sondern ergänzt diese lediglich.

Toleranzanalyse

Bei der Simulation technischer und physikalischer Prozesse treten oft Parameter auf, denen keine exakten Zahlenwerte zugeordnet werden können. So unterliegt der Produktionsprozess technischer Bauteile gewissen Toleranzen, so bestimmte Parameter innerhalb bestimmter Intervalle schwanken können. Außerdem können viele Naturkonstanten nicht mit beliebiger Genauigkeit gemessen werden (Lit.: Dreyer, 2005).

Wird das Verhalten eines solchen toleranzbehafteten Systems beispielsweise durch eine Gleichung , für und Unbekannten , beschrieben, dann kann die Menge aller möglichen Lösungen

,

durch Intervallmethoden abgeschätzt werden. Diese stellen hier eine Alternative zur klassischen Fehlerrechnung dar. Im Gegensatz zu punktbasierten Methoden, wie der Monte-Carlo-Simulation, stellt die verwendete Methodik sicher, dass keine Teile des Lösungsgebietes übersehen werden. Allerdings entspricht das Ergebnis immer einer Worst-Case-Analyse für gleichverteilte Fehler, andere Wahrscheinlichkeitsverteilungen sind nicht möglich.

Fuzzy-Arithmetik

Intervallarithmetik kann auch dazu verwendet werden, beliebige Zugehörigkeitsfunktionen für unscharfe Mengen wie sie in der Fuzzy-Logik benutzt werden anzunähern. Neben den strikten Aussagen und sind hier auch Zwischenwerte möglich, denen reelle Zahlen zugeordnet werden. Dabei entspricht der sicheren Zugehörigkeit und der Nichtzugehörigkeit. Eine Verteilungsfunktion ordnet jedem dieser Werte einen gewissen Schwankungsbereich zu, den man wieder als Intervall auffassen kann.

Für die Fuzzy-Arithmetik werden nur endlich viele diskrete Zugehörigkeitsstufen betrachtet. Die Form einer solchen Verteilung für einen unscharfen Wert kann dann durch eine Reihe von Intervallen

angenähert werden. Dabei entspricht das Intervall genau dem Schwankungsbereich für die Stufe .

Die entsprechende Verteilung für eine Funktion bezüglich unscharfer Werte und den entsprechenden Sequenzen lässt sich dann durch die Intervallsequenz approximieren. Die Werte sind gegeben durch und können durch Intervallverfahren abgeschätzt werden. Dabei entspricht dem Ergebnis einer Intervallrechnung.

Geschichtliches

Intervallarithmetik ist keine völlig neue Erscheinung in der Mathematik und tauchte bereits mehrfach unter verschiedenen Namen im Laufe der Geschichte auf. So berechnete Archimedes bereits im 3. Jahrhundert v. Chr. obere und untere Schranken für die Kreiszahl Pi. Allerdings wurde das eigentliche Rechnen mit Intervallen nie so populär wie andere numerische Techniken, wurde aber nie völlig vergessen.

Regeln für das Rechnen mit Intervallen und anderen Teilmengen der reellen Zahlen finden sich schließlich in einer 1931 veröffentlichten Arbeit von Rosalind Tanner (Rosalind Cecily Young), einer Doktorandin von Ernest William Hobson an der Universität Cambridge. Arbeiten für eine Arithmetik von range numbers („Bereichszahlen“) in Hinblick auf eine Verbesserung und Zuverlässigkeit digitaler Systeme finden sich dann in einem 1951 veröffentlichten Lehrbuch zur linearen Algebra von Paul S. Dwyer (University of Michigan). Hier werden Intervalle tatsächlich dafür eingesetzt, die Rundungsfehler bei Gleitkommazahlen abzuschätzen.

Als Geburtsstunde der modernen Intervallarithmetik wird das Erscheinen des Buches Interval Analysis von Ramon E. Moore im Jahr 1966 (Lit.: Moore) angesehen. Die Idee dazu hatte er im Frühjahr 1958, und bereits ein knappes Jahr später veröffentlichte er einen Artikel über computerunterstützte Intervallarithmetik. Sein Verdienst ist es, dass aus einem einfachen Prinzip eine allgemeingültige Methode zur automatisierten Fehleranalyse wurde, mit deren Hilfe nicht nur der Einfluss von Rundungen bestimmt werden konnte.

Unabhängig davon hatte Mieczyslaw Warmus zwar schon 1956 Formeln für das Rechnen mit Intervallen vorgeschlagen, bei Moore fanden sich aber neben Implementierungshinweisen auch erste nicht-triviale Anwendungen.

In Deutschland hatten sich in den 1960er Jahren Forschergruppen um Karl Nickel (Universität Karlsruhe; ab 1976: Universität Freiburg), Ulrich Kulisch (Lit.: Kulisch) (Universität Karlsruhe) und Fritz Krückeberg (Lit.: Krückeberg) (Universität Bonn; ab 1968: Gesellschaft für Mathematik und Datenverarbeitung, Sankt Augustin) etabliert, in denen zahlreiche Diplom- und Doktorarbeiten zu intervallarithmetischen Themen entstanden.

Das erste internationale Symposium über Intervallanalysis (Lit.: Hansen) veranstaltete das Oxford University Computing Laboratory im Januar 1968 in Culham, England. Der Tagungsband wurde von Eldon R. Hansen herausgegeben, der auch später sehr aktiv auf dem Gebiet war (Lit.: Hansen, Walster).

Karl Nickel war die Triebfeder hinter fünf Workshops zur Intervallarithmetik, die 1968–1976 im mathematischen Forschungsinstitut Oberwolfach stattfanden und wo sich deutschsprachige Forscher über ihre Arbeiten austauschten. Er organisierte 1975, 1980 und 1985 (Lit.: Nickel) internationale Symposien zur Intervallmathematik, wobei er den Begriff Intervallmathematik prägte. Eine Intervallbibliothek, in der Software zur Intervallarithmetik systematisch gesammelt wurde, war in seinem Institut angesiedelt. Von 1978 bis 1987 gab er die Zeitschrift „Freiburger Intervall-Berichte“ heraus. Er war Gründer und Vorsitzender des GAMM-Ausschuss Intervallmathematik.

Zwei Schüler von Ulrich Kulisch, Götz Alefeld und Jürgen Herzberger, veröffentlichten 1974 das erste deutschsprachige Lehrbuch (Lit.: Alefeld und Herzberger) zur Intervallarithmetik.

Seit den 90ern wird das Journal Reliable Computing (ursprünglich Interval Computations) herausgegeben, das sich der Zuverlässigkeit computerunterstützter Berechnungen widmet. Als leitender Redakteur hat R. Baker Kearfott neben seinen Arbeiten zur globalen Optimierung wesentlich zur Vereinheitlichung der Notation und Begrifflichkeiten der Intervallarithmetik beigetragen (Web: Kearfott).

In jüngerer Zeit sind insbesondere die Arbeiten zur Abschätzung des Urbildes parametrisierter Funktionen und zur robusten Kontrolle von der COPRIN-Arbeitsgruppe des INRIA im französischen Sophia Antipolis zu erwähnen (Web: INRIA).

Patente

Einer der wesentlichen Förderer der Intervallarithmetik, G. William Walster von Sun Microsystems, hat in den Jahren 2001 bis 2004 – teilweise zusammen mit Ramon E. Moore und Eldon R. Hansen – mehrere Patente im Bereich der Intervallarithmetik beim United States Patent and Trademark Office angemeldet. Die Gültigkeit dieser Ansprüche ist jedoch in der Intervallarithmetik-Forschungsgemeinde stark umstritten, da sie möglicherweise lediglich den bisherigen Stand der Technik wiedergeben.

Implementierungen

Es gibt viele Softwarepakete, welche die Entwicklung numerischer Anwendungen unter Nutzung der Intervallarithmetik erlauben. Diese sind meist in Form von Programmbibliotheken umgesetzt. Es gibt allerdings auch C++- und Fortran-Übersetzer, welche Intervall-Datentypen und entsprechend geeignete Operationen als Spracherweiterung besitzen, so dass Intervallarithmetik direkt unterstützt wird.

Seit 1967 entwickelte man zunächst an der Universität Karlsruhe XSC-Erweiterungen für wissenschaftliches Rechnen („Extensions for Scientific Computation“) für verschiedene Programmiersprachen, darunter C++, Fortran und Pascal. Plattform war zunächst ein Zuse Z 23, für den ein neuer Intervall-Datentyp mit entsprechenden elementaren Operatoren zur Verfügung gestellt wurde.

1976 folgte mit Pascal-SC eine Pascal-Variante auf einem Zilog Z80, die es ermöglichte, schnell komplexe Routinen für automatisierte Ergebnisverifikation zu schaffen. Es folgte das Fortran 77-basierte ACRITH-XSC für die System/370-Architektur, das später auch von IBM ausgeliefert wird. Ab 1991 kann man mit Pascal-XSC dann Code für C-Compiler erzeugen, und ein Jahr später unterstützt die C++-Klassenbibliothek C-XSC bereits viele verschiedene Computersysteme. 1997 werden alle XSC-Varianten unter die General Public License gestellt und stehen so frei zu Verfügung. Anfang der 2000er-Jahre wurde C-XSC 2.0 unter Federführung der Arbeitsgruppe für wissenschaftliches Rechnen an der Bergischen Universität Wuppertal neugestaltet, um dem mittlerweile verabschiedeten C++-Standard besser entsprechen zu können.

Eine weitere C++-Klassenbibliothek ist das 1993 an der TU Hamburg-Harburg geschaffene Profil/BIAS („Programmer’s Runtime Optimized Fast Interval Library, Basic Interval Arithmetic“), das die üblichen Intervalloperationen benutzerfreundlich zur Verfügung stellt. Dabei wurde besonderen Wert auf die effiziente Ausnutzung der Hardware, Portabilität und Unabhängigkeit von einer speziellen Intervalldarstellung gelegt.

Die Boost-Sammlung von C++-Bibliotheken enthält ebenfalls eine Template-Klasse für Intervalle. Deren Autoren bemühen sich derzeit um eine Aufnahme der Intervallarithmetik in den C++-Sprachstandard.

Heute können außerdem die gängigen Computeralgebrasysteme, wie Mathematica, Maple und MuPAD, mit Intervallen umgehen. Außerdem gibt es für Matlab die Erweiterung INTLAB, die auf BLAS-Routinen aufbaut, sowie die Toolbox b4m, die ein Profil/BIAS-Interface zur Verfügung stellt.

IEEE-Standard 1788–2015

Ein IEEE-Standard für Intervallarithmetik wurde im Juni 2015 veröffentlicht. Es gibt zwei freie Referenzimplementierungen, die von Mitgliedern der Arbeitsgruppe entwickelt worden sind: Die libieeep1788-Bibliothek für C++ und das Intervall-Paket für GNU Octave.

Eine vereinfachte Variante des Standards wurde 2017 verabschiedet. Diese soll noch einfacher umzusetzen sein und für eine schnellere Verbreitung sorgen.

Konferenzen und Workshops

Mehrere internationale Konferenzen und Workshops werden jährlich in der ganzen Welt abgehalten. Die wichtigste Konferenz ist SCAN (International Symposium on Scientific Computing, Computer Arithmetic, and Verified Numerical Computation). Daneben gibt es SWIM (Summer Workshop on Interval Methods), PPAM (International Conference on Parallel Processing and Applied Mathematics) und REC (International Workshop on Reliable Engineering Computing).

Siehe auch

Referenzen

Literatur

  • Götz Alefeld, Jürgen Herzberger: Einführung in die Intervallrechnung. (= Informatik, Band 12). Bibliographisches Institut, B.I.-Wissenschaftsverlag, Mannheim/ Wien/ Zürich 1974, ISBN 3-411-01466-0.
  • H. Bauch, K.-U. Jahn, D. Oelschlägel, H. Süße, V. Wiebigke: Intervallmathematik. BSB Teubner, Leipzig 1987, ISBN 3-322-00384-1.
  • Alexander Dreyer: Interval Analysis of Analog Circuits with Component Tolerances. Doktorarbeit. Shaker Verlag, Aachen 2003, ISBN 3-8322-4555-3.
  • Eldon R. Hansen (Ed.): Topics in Interval Analysis. Symposium on Interval Analysis, Culham, England, 1968. Clarendon Press, Oxford (1969), ISBN 0-1985-3333-0.
  • Eldon Hansen, G. William Walster: Global Optimization using Interval Analysis. 2. überarb. Auflage. Marcel Dekker, New York 2004, ISBN 0-8247-4059-9.
  • Hanss, Michael: Applied Fuzzy Arithmetic. 2. Auflage. Springer-Verlag, Berlin Heidelberg, 2010, ISBN 978-3-540-27317-2.
  • L. Jaulin, M. Kieffer, O. Didrit, É. Walter: Applied Interval Analysis: With examples in parameter estimation robust control and robotics. Springer, London 2001, ISBN 1-85233-219-0.
  • Fritz Krückeberg: Intervallanalytische Methoden in der numerischen Datenverarbeitung. In: Der Minister für Wissenschaft und Forschung des Landes Nordrhein-Westfalen, Landesamt für Forschung, Jahrbuch 1970, Westdeutscher Verlag Opladen (1971).
  • Ulrich Kulisch: Wissenschaftliches Rechnen mit Ergebnisverifikation. Eine Einführung. Vieweg-Verlag, Wiesbaden 1989, ISBN 3-528-08943-1.
  • R. E. Moore: Interval Analysis. Prentice-Hall, Englewood Cliff, NJ 1966, ISBN 0-13-476853-1.
  • Karl Nickel (Ed.): Interval Mathematics: Proceedings of the International Symposium, Karlsruhe, West Germany, May 20-24, 1975. Lecture Notes in Computer Science 29, Springer 1975, ISBN 3-540-07170-9
  • Karl Nickel (Ed.): Interval Mathematics 1980, Academic Press, New York, London, Toronto 1980.
  • Karl Nickel (Ed.): Interval Mathematics 1985: Proceedings of the International Symposium, Freiburg i. Br., Federal Republic of Germany, September 23-26, 1985. Lecture Notes in Computer Science 212, Springer 1986, ISBN 3-540-16437-5

Quellen

  1. Veröffentlichungen von Jiří Rohn (Memento vom 7. September 2007 im Internet Archive)
  2. Hanss, Michael: Applied Fuzzy Arithmetic. 2. Auflage. Springer-Verlag, Berlin Heidelberg, 2010, ISBN 978-3-540-27317-2, Kapitel 3.
  3. Abhandlung über frühe Artikel von R. E. Moore
  4. Frühe Arbeiten von M. Warmus (Memento vom 18. April 2008 im Internet Archive)
  5. Nickel obituary
  6. Doktoranden Nickel; Kulisch; Krückeberg
  7. Mathematisches Forschungsinstitut Oberwolfach, Tagungsberichte Intervallrechnung 1968; 1969; 1972; 1973; 1976
  8. Patent US6842764B2: Minimum and maximum operations to facilitate interval multiplication and/or interval division. Angemeldet am 26. März 2001, veröffentlicht am 11. Januar 2005, Anmelder: Sun Microsystems Inc, Erfinder: William G. Walster.
  9. COCONUT Environment An open source solver platform for global optimization problems. Archiviert vom Original am 31. März 2014; abgerufen am 15. Januar 2023.
  10. Software für Intervallrechnungen, zusammengestellt von Vladik Kreinovich (Memento vom 2. März 2006 im Internet Archive), University of Texas, El Paso
  11. Beispiel einer Intervallarithmetik-Klasse in C++ (Memento vom 30. März 2005 im Internet Archive) von Sun Microsystems
  12. C++- und Fortran-Compiler mit Intervallunterstützung von Sun Microsystems
  13. Geschichte der XSC-Erweiterungen (Memento vom 29. September 2007 im Internet Archive)
  14. Vorschlag für eine Erweiterung der C++-Standards um Intervalle
  15. INTerval LABoratory und b4m (Memento vom 1. Mai 2008 im Internet Archive)
  16. IEEE Standard for Interval Arithmetic
  17. Revol, Nathalie (2015). The (near-)future IEEE 1788 standard for interval arithmetic. 8th small workshop on interval methods. Foliensatz (PDF, englisch)
  18. IEEE Interval Standard Working Group - P1788
  19. C++ implementation of the preliminary IEEE P1788 standard for interval arithmetic
  20. GNU Octave interval package
  21. IEEE 1788.1-2017: IEEE Standard for Interval Arithmetic (Simplified). IEEE, abgerufen am 1. Mai 2023.
This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.