Simpsons regel

Fra Wikipedia, den frie encyklopædi
(Omdirigeret fra Simpsons-regel)

Simpsons regel, opkaldt efter den engelske matematiker Thomas Simpson[1], er en metode i numerisk analyse til at udregne cirkaværdien af et bestemt integrale.

Oversigt[redigér | rediger kildetekst]

For et interval af funktionen f som i en vis forstand er "glat", det vil sige uden store udsving eller udefinerede punkter, kan generelt bruges følgende formel til tilnærmet beregning af integralet :

Funktionen f(x) (i blåt) er tilpasset en kvadratisk funktion P(x) (i rødt).

Ideen bag denne formel er at erstatte den egentlige funktion i et interval med en parabelbue der har samme endepunkter og samme midtpunkt som intervallet, og da udregne integralet af denne parabel i stedet. Dette er illustreret i tegningen til højre.

Fejlen ved approximation af et integral med denne metode er lig

hvor c er et tal i intervallet [2].

Er funktionen imidlertid ikke glat over intervallet, for eksempel fordi den har store udsving eller ikke er defineret i et eller flere punkter, giver ovenstående metode ofte dårlige resultater. I sådanne tilfælde kan bruges den mere generelle version af Simpsons regel, givet ved formlen

Her er er intervallet opdelt i n lige store delintervaller hvor n er et lige tal. Desuden er for og . Specielt er og . Ideen er altså at opdele intervallet i mindre delintervaller og bruge Simpsons metode på hvert delinterval, og så summere over resultaterne.

Ovenstående formel kan også skrives, uden brug af summationstegn, som følger:

Fejlen ved denne metode er lig

hvor h er længden af delintervallerne, givet ved , og c er et tal i intervallet [3].

Simpsons regel giver præcise værdier for integraler af polynomier af tredje grad og derunder. Dette er en smule overraskende da Simpsons regel baserer sig på på approksimation med andengradspolynomier, men skyldes at der i formlen for fejlen indgår den fjerde afledede af f som for et polynomie af tredje grad eller derunder er lig nul, og fejlen bliver således tilsvarende altid lig nul.

Alternative, udvidede versioner[redigér | rediger kildetekst]

Simpsons regel som den er beskrevet ovenfor opdeler intervallet i delintervaller af lige stor størrelse. Det kan dog somme tider være praktisk at opdele i delintervaller af forskellig størrelser og fokusere på områder hvor funktionen er problematisk. Dette giver anledning til Simpsons adaptive metode, som blev fremsat af William M. McKeeman i 1962.

Den herover beskrevne metode er desuden baseret på disjunkte delintervaller. Opdeles i stedet i overlappende delintervaller, kan anvendes formlen [4]

Noter[redigér | rediger kildetekst]

  1. ^ Süli og Mayers, §7.2
  2. ^ Atkinson, equation (5.1.15); Süli og Mayers, Theorem 7.2
  3. ^ Atkinson, pp. 257+258; Süli og Mayers, §7.5
  4. ^ Press (1989) p.122

Kilder/henvisninger[redigér | rediger kildetekst]

  • Atkinson, Kendall A. (1989). An Introduction to Numerical Analysis (2 udgave). John Wiley & Sons. ISBN 0-471-50023-2.
  • Press, William H., Brian P. Flannery, William T. Vetterling, og Saul A. Teukolsky (1989). Numerical Recipes in Pascal: The Art of Scientific Computing. Cambridge University Press. ISBN 0521375169.{{cite book}}: CS1-vedligeholdelse: Flere navne: authors list (link)
  • Süli, Endre og Mayers, David (2003). An Introduction to Numerical Analysis. Cambridge University Press. ISBN 0-521-81026-4 (hardback), ISBN 0-521-00794-1 (paperback).{{cite book}}: CS1-vedligeholdelse: Flere navne: authors list (link)