| Den här artikeln behöver källhänvisningar för att kunna verifieras. (2023-07) Åtgärda genom att lägga till pålitliga källor (gärna som fotnoter). Uppgifter utan källhänvisning kan ifrågasättas och tas bort utan att det behöver diskuteras på diskussionssidan. |
Differentierbarhet är inom matematisk analys en lokal egenskap hos en funktion som generaliserar begreppet deriverbarhet till flera dimensioner. Ur differentierbarhet följer kontinuitet och kedjeregeln.
Definition
Funktionen
säges vara differentierbar i punkten
om och endast om det existerar en punkt
i
och en funktion
sådana att
![{\displaystyle f(\mathbf {a} +\mathbf {h} )-f(\mathbf {a} )=\mathbf {A} \cdot \mathbf {h} +|\mathbf {h} |\rho (\mathbf {h} )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/149983ed250051c3ac892b8013ac6efbcff6ad49)
och
![{\displaystyle \lim _{\mathbf {h} \rightarrow \mathbf {0} }\rho (\mathbf {h} )=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/eb48bd4b4dd168eabc40b82ab8d8dbf600fb8ca7)
En funktion säges vara differentierbar på en mängd M om funktionen är differentierbar i alla punkter i M.
Det kan observeras att definitionen av differentierbarhet är ekvivalent med definitionen för deriverbarhet om f är en funktion av bara en variabel. För vektorvärda funktioner betraktas komponentfunktionernas differentierbarhet.
Man kan visa
i punkten
liksom att existensen av kontinuerliga partiella derivator för en funktion implicerar differentierbarhet.
Liksom ekvationen för tangenten till funktionen kan utläsas ur definitionen av deriverbarhet beskriver högerledet i definitionen ovan tangentplanet till funktionen i punkten
.
Att en funktion är differentierbar innebär att den är deriverbar i alla riktningar. Grafiskt tolkat betyder det att tangentplanet ligger nära funktionsytan. Alla kontinuerliga funktioner är således inte differentierbara.
Differentierbar datoranvändning |
---|
| General | Differentierbar programmering • Neural Turing maskin • Differentierbar neural dator • Automatisk differentiering • Neuromorf ingenjörskonst • Cable theory • Mönsterigenkänning • Beräkningslärandeteori • Tensorkalkyl | | Begrepp | Gradient descent • SGD • Klusteranalys • Regression • Overfitting • Adversary • Attention • Faltning • Förlustfunktioner • Backpropagation • Normalization • Activation • Softmax • Sigmoid • Rectifier • Regularization • Datasets • Augmentation | | Programmeringsspråk | Python • Julia | | Applikationer | | | Hårdvara | IPU • TPU • VPU • Memristor • SpiNNaker | | Mjukvarubibliotek | TensorFlow • PyTorch • Keras • Theano | | Implementation | Audiovisuellt | | | Verbal | Word2vec • Transformator • BERT • NMT • Project Debater • Watson • GPT-2 • GPT-3 | | Beslutande | |
| | Personer | | | Organisationer | |
|