Differentialräkning

OptimizationEdit

Om f är en differentierbar funktion på ℝ (eller ett öppet intervall) och x är ett lokalt maximum eller ett lokalt minimum av f, så är derivatan av f vid x noll. Punkter där f'(x) = 0 kallas kritiska punkter eller stationära punkter (och värdet av f vid x kallas kritiskt värde). Om f inte antas vara differentierbar överallt, kallas punkter där den inte är differentierbar också kritiska punkter.

Om f är dubbelt differentierbar kan omvänt en kritisk punkt x för f analyseras genom att betrakta den andra derivatan av f vid x :

  • Om den är positiv är x ett lokalt minimum;
  • Om den är negativ är x ett lokalt maximum;
  • Om den är noll kan x vara ett lokalt minimum, ett lokalt maximum eller ingetdera. (Exempelvis har f(x) = x3 en kritisk punkt vid x = 0, men den har varken ett maximum eller ett minimum där, medan f(x) = ± x4 har en kritisk punkt vid x = 0 och ett minimum respektive ett maximum där.)

Detta kallas testet av den andra derivatan. Ett alternativt tillvägagångssätt, som kallas första derivattestet, innebär att man tar hänsyn till tecknet på f’ på vardera sidan av den kritiska punkten.

Att ta derivat och lösa för kritiska punkter är därför ofta ett enkelt sätt att hitta lokala minima eller maxima, vilket kan vara användbart vid optimering. Enligt extremvärdessatsen måste en kontinuerlig funktion på ett slutet intervall uppnå sina minimi- och maximivärden minst en gång. Om funktionen är differentierbar kan minima och maxima endast inträffa vid kritiska punkter eller ändpunkter.

Detta har också tillämpningar vid grafskissning: när de lokala minima och maxima för en differentierbar funktion väl har hittats kan en grov ritning av grafen erhållas utifrån observationen att den kommer att vara antingen ökande eller minskande mellan de kritiska punkterna.

I högre dimensioner är en kritisk punkt för en skalärvärderad funktion en punkt vid vilken gradienten är noll. Testet av den andra derivatan kan fortfarande användas för att analysera kritiska punkter genom att beakta egenvärdena i Hessianmatrisen för funktionens andra partiella derivata vid den kritiska punkten. Om alla egenvärden är positiva är punkten ett lokalt minimum, om alla är negativa är det ett lokalt maximum. Om det finns några positiva och några negativa egenvärden kallas den kritiska punkten för en ”sadelpunkt”, och om inget av dessa fall föreligger (dvs. några av egenvärdena är noll) anses testet vara ofullständigt.

VariationskalkylRedigera

Huvudartikel: Variationskalkyl

Ett exempel på ett optimeringsproblem är: Hitta den kortaste kurvan mellan två punkter på en yta, med antagandet att kurvan också måste ligga på ytan. Om ytan är ett plan är den kortaste kurvan en linje. Men om ytan till exempel är äggformad är den kortaste vägen inte omedelbart tydlig. Dessa vägar kallas geodetiska banor, och ett av de mest grundläggande problemen i variationskalkylen är att hitta geodetiska banor. Ett annat exempel är: Ett annat exempel är att hitta den minsta yta som fyller en sluten kurva i rymden. Denna yta kallas en minimal yta och även den kan hittas med hjälp av variationskalkylen.

FysikEdit

Kalkylen är av avgörande betydelse inom fysiken: många fysikaliska processer beskrivs av ekvationer som involverar derivata, så kallade differentialekvationer. Fysiken är särskilt intresserad av hur storheter förändras och utvecklas över tiden, och begreppet ”tidsderivat” – förändringshastigheten över tiden – är viktigt för den exakta definitionen av flera viktiga begrepp. Särskilt tidsderivaten av ett föremåls position är betydelsefull i Newtons fysik:

  • hastighet är derivatan (med avseende på tiden) av ett föremåls förskjutning (avstånd från den ursprungliga positionen)
  • acceleration är derivatan (med avseende på tiden) av ett föremåls hastighet, det vill säga den andra derivatan (med avseende på tiden) av ett föremåls position.

Till exempel, om ett föremåls position på en linje ges av

x ( t ) = – 16 t 2 + 16 t + 32 , {\displaystyle x(t)=-16t^{2}+16t+32,\,\!}

då är objektets hastighet

x ˙ ( t ) = x ′ ( t ) = – 32 t + 16 , {\displaystyle {\dot {x}}(t)=x'(t)=-32t+16,\,\,\!}

och objektets acceleration är

x ¨ ( t ) = x ″ ( t ) = – 32 , {\displaystyle {\ddot {x}}(t)=x”(t)=-32,\,\!}

som är konstant.

DifferentialekvationerRedigera

Huvudartikel: Differentialekvation

En differentialekvation är ett samband mellan en samling funktioner och deras derivata. En vanlig differentialekvation är en differentialekvation som relaterar funktioner av en variabel till deras derivat med avseende på den variabeln. En partiell differentialekvation är en differentialekvation som relaterar funktioner av mer än en variabel till deras partiella derivata. Differentialekvationer förekommer naturligt inom fysik, matematisk modellering och inom själva matematiken. Till exempel kan Newtons andra lag, som beskriver förhållandet mellan acceleration och kraft, anges som den vanliga differentialekvationen

F ( t ) = m d 2 x d t 2 . {\displaystyle F(t)=m{\frac {d^{2}x}{dt^{2}}}.}

Värmeekvationen i en rymdvariabel, som beskriver hur värme diffunderar genom en rak stav, är den partiella differentialekvationen

∂ u ∂ t = α ∂ 2 u ∂ x 2 . {\displaystyle {\frac {\partial u}{\partial t}}=\alpha {\frac {\frac {\partial ^{2}u}{\partial x^{2}}}.}

Här är u(x,t) stavens temperatur vid position x och tid t och α är en konstant som beror på hur snabbt värme diffunderar genom staven.(2-3¡)-(3+2)

MedelvärdessatsRedigera

Huvudartikel: Medelvärdessats
Medelvärdessatsen: För varje differentierbar funktion f : → R {\displaystyle f:\to \mathbb {R} }

med a < b {\displaystyle a<b}

det finns en c ∈ ( a , b ) {\displaystyle c\in (a,b)}

med f ′ ( c ) = f ( b ) – f ( a ) b – a {\displaystyle f'(c)={\tfrac {f(b)-f(a)}{b-a}}}

.

Medelvärdessatsen ger ett samband mellan värden på derivatan och värden på den ursprungliga funktionen. Om f(x) är en realvärdesfunktion och a och b är tal med a < b, säger medelvärdessatsen att under milda hypoteser är lutningen mellan de två punkterna (a, f(a)) och (b, f(b)) lika med lutningen på tangentlinjen till f i någon punkt c mellan a och b. Med andra ord,

f ′ ( c ) = f ( b ) – f ( a ) b – a . {\displaystyle f'(c)={\frac {f(b)-f(a)}{b-a}}.}

I praktiken är vad medelvärdessatsen gör att kontrollera en funktion i termer av dess derivata. Anta till exempel att f har derivatan lika med noll i varje punkt. Detta innebär att dess tangentlinje är horisontell i varje punkt, så funktionen bör också vara horisontell. Medelvärdessatsen bevisar att detta måste vara sant: lutningen mellan två punkter på grafen för f måste vara lika med lutningen på en av tangenterna till f. Alla dessa lutningar är noll, så varje linje från en punkt på grafen till en annan punkt kommer också att ha lutningen noll. Men det betyder att funktionen inte rör sig uppåt eller nedåt, så den måste vara en horisontell linje. Mer komplicerade villkor för derivatan leder till mindre exakt men fortfarande mycket användbar information om den ursprungliga funktionen.

Taylorpolynom och TaylorserierRedigera

Huvudartiklar: Taylorpolynom och Taylorserier

Derivatan ger den bästa möjliga linjära approximationen av en funktion i en given punkt, men denna kan skilja sig mycket från den ursprungliga funktionen. Ett sätt att förbättra approximationen är att ta en kvadratisk approximation. Det vill säga, linjäriseringen av en realvärdesfunktion f(x) i punkten x0 är ett linjärt polynom a + b(x – x0), och det kan vara möjligt att få en bättre approximation genom att betrakta ett kvadratiskt polynom a + b(x – x0) + c(x – x0)2. Ännu bättre kan vara ett kubiskt polynom a + b(x – x0) + c(x – x0)2 + d(x – x0)3, och denna idé kan utvidgas till polynom av godtyckligt hög grad. För vart och ett av dessa polynom bör det finnas ett bästa möjliga val av koefficienter a, b, c och d som gör approximationen så bra som möjligt.

I närheten av x0 är det bästa möjliga valet för a alltid f(x0), och för b är det bästa möjliga valet alltid f'(x0). För c, d och koefficienter av högre grad bestäms dessa koefficienter av högre derivat av f. c bör alltid vara f”'(x0)/2, och d bör alltid vara f””(x0)/3!. Genom att använda dessa koefficienter får man Taylorpolynomet för f. Taylorpolynomet av grad d är det polynom av grad d som närmar sig f bäst, och dess koefficienter kan hittas genom en generalisering av ovanstående formler. Taylors sats ger en exakt gräns för hur bra approximationen är. Om f är ett polynom av grad mindre än eller lika med d, så är Taylorpolynomet av grad d lika med f.

Tillhörigheten till Taylorpolynomen är en oändlig serie som kallas Taylor-serien. Taylor-serien är ofta en mycket god approximation av den ursprungliga funktionen. Funktioner som är lika med sin Taylor-serie kallas analytiska funktioner. Det är omöjligt för funktioner med diskontinuiteter eller skarpa hörn att vara analytiska; dessutom finns det släta funktioner som inte heller är analytiska.

Implicit funktionssatsRedigera

Huvudartikel: Implicit funktionssats

Vissa naturliga geometriska former, till exempel cirklar, kan inte ritas som grafen för en funktion. Om till exempel f(x, y) = x2 + y2 – 1 är cirkeln mängden av alla par (x, y) så att f(x, y) = 0. Denna mängd kallas för f:s nollmängd och är inte samma sak som grafen för f, som är en paraboloid. Den implicita funktionssatsen omvandlar relationer som f(x, y) = 0 till funktioner. Den säger att om f är kontinuerligt differentierbar, så ser f:s nollmängd runt de flesta punkter ut som grafer av funktioner som klistras ihop. De punkter där detta inte är sant bestäms av ett villkor för f:s derivata. Cirkeln kan till exempel klistras ihop av graferna för de två funktionerna ± √1 – x2. I ett grannskap till varje punkt på cirkeln utom (-1, 0) och (1, 0) har en av dessa två funktioner en graf som ser ut som cirkeln. (Dessa två funktioner råkar också möta (-1, 0) och (1, 0), men detta garanteras inte av satsen om implicita funktioner.)

Satsen om implicita funktioner är nära besläktad med satsen om omvänd funktion, som anger när en funktion ser ut som grafer av inverterbara funktioner som klistras ihop.

Lämna ett svar

Din e-postadress kommer inte publiceras.