F ′ ( X ) = 4 X ( 4 - 1 ) + D ( X 2 ) D X porque ( X 2 ) - D ( en X ) D X mi X - en ( X ) D ( mi X ) D X + 0 = 4 X 3 + 2 X porque ( X 2 ) - 1 X mi X - en ( X ) mi X .
{\ Displaystyle {\ begin {alineado} f '(x) amp; = 4x ^ {(4-1)} + {\ frac {d \ left (x ^ {2} \ right)} {dx}} \ cos \ izquierda (x ^ {2} \ derecha) - {\ frac {d \ izquierda (\ ln {x} \ derecha)} {dx}} e ^ {x} - \ ln (x) {\ frac {d \ izquierda (e ^ {x} \ right)} {dx}} + 0 \\ amp; = 4x ^ {3} + 2x \ cos \ left (x ^ {2} \ right) - {\ frac {1} {x} } e ^ {x} - \ ln (x) e ^ {x}. \ end {alineado}}} Aquí, el segundo término se calculó usando la regla de la cadena y el tercero usando la regla del producto . También se utilizaron las derivadas conocidas de las funciones elementales x 2 , x 4 , sin ( x), ln ( x) y exp ( x) = e x , así como la constante 7.
Definición con hiperreal En relación con una extensión hiperreal R ⊂ ⁎ R de los números reales, la derivada de una función real y = f ( x) en un punto real x se puede definir como la sombra del cociente ∆ y/∆ xpara infinitesimal ∆ x, donde ∆ y = f ( x + ∆ x) - f ( x). Aquí la extensión natural de f a los hiperrealistas todavía se denota f. Aquí se dice que la derivada existe si la sombra es independiente del infinitesimal elegido.
En dimensiones superiores Ver también: cálculo vectorial y cálculo multivariable Funciones con valores vectoriales Una función de valor vectorial y de una variable real envía números reales a los vectores en algún espacio vectorial R n . Una función con valores vectoriales se puede dividir en sus funciones de coordenadas y 1 ( t), y 2 ( t),..., y n ( t), lo que significa que y ( t) = ( y 1 ( t),..., y n ( t)). Esto incluye, por ejemplo, curvas paramétricas en R 2 o R 3 . Las funciones de coordenadas son funciones de valor real, por lo que la definición anterior de derivada se aplica a ellas. La derivada de y ( t) se define como el vector , llamado vector tangente , cuyas coordenadas son las derivadas de las funciones de coordenadas. Es decir,
y ′ ( t ) = ( y 1 ′ ( t ) , ... , y norte ′ ( t ) ) .
{\ Displaystyle \ mathbf {y} '(t) = (y' _ {1} (t), \ ldots, y '_ {n} (t)).} Equivalentemente,
y ′ ( t ) = lim h → 0 y ( t + h ) - y ( t ) h ,
{\ Displaystyle \ mathbf {y} '(t) = \ lim _ {h \ to 0} {\ frac {\ mathbf {y} (t + h) - \ mathbf {y} (t)} {h}},} si el límite existe. La resta en el numerador es la resta de vectores, no escalares. Si la derivada de y existe para cada valor de t, entonces y ′ es otra función con valores vectoriales.
Si e 1,..., e n es la base estándar para R n , entonces y ( t) también se puede escribir como y 1 ( t) e 1 + ⋯ + y n ( t) e n. Si asumimos que la derivada de una función con valores vectoriales conserva la propiedad de linealidad , entonces la derivada de y ( t) debe ser
y 1 ′ ( t ) mi 1 + ⋯ + y norte ′ ( t ) mi norte
{\ Displaystyle y '_ {1} (t) \ mathbf {e} _ {1} + \ cdots + y' _ {n} (t) \ mathbf {e} _ {n}} porque cada uno de los vectores base es una constante.
Esta generalización es útil, por ejemplo, si y ( t) es el vector de posición de una partícula en el tiempo t ; entonces la derivada y ′ ( t) es el vector de velocidad de la partícula en el tiempo t.
Derivadas parciales Artículo principal: derivada parcial Suponga que f es una función que depende de más de una variable, por ejemplo,
F ( X , y ) = X 2 + X y + y 2 .
{\ Displaystyle f (x, y) = x ^ {2} + xy + y ^ {2}.} f se puede reinterpretar como una familia de funciones de una variable indexada por las otras variables:
F ( X , y ) = F X ( y ) = X 2 + X y + y 2 .
{\ Displaystyle f (x, y) = f_ {x} (y) = x ^ {2} + xy + y ^ {2}.} En otras palabras, cada valor de x elige una función, denotada f x, que es una función de un número real. Es decir,
{\ Displaystyle x \ mapsto f_ {x},} F X ( y ) = X 2 + X y + y 2 .
{\ Displaystyle f_ {x} (y) = x ^ {2} + xy + y ^ {2}.} Una vez que un valor de x se elige, por ejemplo una, entonces f ( x, y) determina una función f una que envía y a un 2 + ay + y 2 :
F a ( y ) = a 2 + a y + y 2 .
{\ Displaystyle f_ {a} (y) = a ^ {2} + ay + y ^ {2}.} En esta expresión, a es una constante, no una variable, por lo que f a es una función de una sola variable real. En consecuencia, se aplica la definición de la derivada para una función de una variable:
{\ Displaystyle f_ {a} '(y) = a + 2y.} El procedimiento anterior se puede realizar para cualquier elección de a. Al reunir las derivadas en una función, se obtiene una función que describe la variación de f en la dirección y:
∂ F ∂ y ( X , y ) = X + 2 y .
{\ Displaystyle {\ frac {\ parcial f} {\ parcial y}} (x, y) = x + 2y.} Ésta es la derivada parcial de f con respecto ay. Aquí ∂ es una d redondeada llamada símbolo de derivada parcial. Para distinguirlo de la letra d, ∂ a veces se pronuncia "der", "del" o "parcial" en lugar de "dee".
En general, la derivada parcial de una función f ( x 1,…, x n) en la dirección x i en el punto ( a 1,..., a n) se define como:
∂ F ∂ X I ( a 1 , ... , a norte ) = lim h → 0 F ( a 1 , ... , a I + h , ... , a norte ) - F ( a 1 , ... , a I , ... , a norte ) h .
{\ Displaystyle {\ frac {\ parcial f} {\ parcial x_ {i}}} (a_ {1}, \ ldots, a_ {n}) = \ lim _ {h \ to 0} {\ frac {f ( a_ {1}, \ ldots, a_ {i} + h, \ ldots, a_ {n}) - f (a_ {1}, \ ldots, a_ {i}, \ ldots, a_ {n})} {h }}.} En el cociente de diferencias anterior, todas las variables excepto x i se mantienen fijas. Esa elección de valores fijos determina una función de una variable
F a 1 , ... , a I - 1 , a I + 1 , ... , a norte ( X I ) = F ( a 1 , ... , a I - 1 , X I , a I + 1 , ... , a norte ) ,
{\ Displaystyle f_ {a_ {1}, \ ldots, a_ {i-1}, a_ {i + 1}, \ ldots, a_ {n}} (x_ {i}) = f (a_ {1}, \ ldots, a_ {i-1}, x_ {i}, a_ {i + 1}, \ ldots, a_ {n}),} y, por definición,
D F a 1 , ... , a I - 1 , a I + 1 , ... , a norte D X I ( a I ) = ∂ F ∂ X I ( a 1 , ... , a norte ) .
{\ Displaystyle {\ frac {df_ {a_ {1}, \ ldots, a_ {i-1}, a_ {i + 1}, \ ldots, a_ {n}}} {dx_ {i}}} (a_ { i}) = {\ frac {\ parcial f} {\ parcial x_ {i}}} (a_ {1}, \ ldots, a_ {n}).} En otras palabras, las diferentes opciones de un índice, una familia de funciones de una variable, como en el ejemplo anterior. Esta expresión también muestra que el cálculo de derivadas parciales se reduce al cálculo de derivadas de una variable.
Esto es fundamental para el estudio de las funciones de varias variables reales . Sea f ( x 1,..., x n) una función de valor real . Si todas las derivadas parciales ∂ f / ∂ x j de f están definidas en el punto a = ( a 1,..., a n), estas derivadas parciales definen el vector
∇ F ( a 1 , ... , a norte ) = ( ∂ F ∂ X 1 ( a 1 , ... , a norte ) , ... , ∂ F ∂ X norte ( a 1 , ... , a norte ) ) ,
{\ Displaystyle \ nabla f (a_ {1}, \ ldots, a_ {n}) = \ left ({\ frac {\ partial f} {\ partial x_ {1}}} (a_ {1}, \ ldots, a_ {n}), \ ldots, {\ frac {\ partial f} {\ partial x_ {n}}} (a_ {1}, \ ldots, a_ {n}) \ right),} que se llama gradiente de f en a. Si f es diferenciable en cada punto de algún dominio, entonces el gradiente es una función con valores vectoriales ∇ f que mapea el punto ( a 1,..., a n) al vector ∇ f ( a 1,..., un n). En consecuencia, el gradiente determina un campo vectorial .
Derivadas direccionales Artículo principal: Derivada direccional Si f es una función de valor real en R n , entonces las derivadas parciales de f miden su variación en la dirección de los ejes de coordenadas. Por ejemplo, si f es una función de x y y, a continuación, sus derivados parciales miden la variación de f en el x dirección y el y dirección. Sin embargo, no miden directamente la variación de f en ninguna otra dirección, como a lo largo de la línea diagonal y = x. Estos se miden utilizando derivadas direccionales. Elige un vector
v = ( v 1 , ... , v norte ) .
{\ Displaystyle \ mathbf {v} = (v_ {1}, \ ldots, v_ {n}).} La derivada direccional de f en la dirección de v en el punto x es el límite
D v F ( X ) = lim h → 0 F ( X + h v ) - F ( X ) h .
{\ Displaystyle D _ {\ mathbf {v}} {f} (\ mathbf {x}) = \ lim _ {h \ rightarrow 0} {\ frac {f (\ mathbf {x} + h \ mathbf {v}) -f (\ mathbf {x})} {h}}.} En algunos casos, puede ser más fácil calcular o estimar la derivada direccional después de cambiar la longitud del vector. A menudo, esto se hace para convertir el problema en el cálculo de una derivada direccional en la dirección de un vector unitario. Para ver cómo funciona esto, suponga que v = λ u donde u es un vector unitario en la dirección de v. Sustituya h = k / λ en el cociente de diferencias. El cociente de diferencias se convierte en:
F ( X + ( k / λ ) ( λ tu ) ) - F ( X ) k / λ = λ ⋅ F ( X + k tu ) - F ( X ) k .
{\ Displaystyle {\ frac {f (\ mathbf {x} + (k / \ lambda) (\ lambda \ mathbf {u})) - f (\ mathbf {x})} {k / \ lambda}} = \ lambda \ cdot {\ frac {f (\ mathbf {x} + k \ mathbf {u}) -f (\ mathbf {x})} {k}}.} Esto es λ multiplicado por el cociente de diferencias de la derivada direccional de f con respecto a u. Además, teniendo el límite cuando h tiende a cero es el mismo que tomar el límite cuando k tiende a cero porque h y k son múltiplos una de la otra. Por lo tanto, D v ( f) = λ D u ( f). Debido a esta propiedad de cambio de escala, las derivadas direccionales se consideran con frecuencia solo para vectores unitarios.
Si todas las derivadas parciales de f existen y son continuas en x, entonces determinan la derivada direccional de f en la dirección v mediante la fórmula:
D v F ( X ) = ∑ j = 1 norte v j ∂ F ∂ X j .
{\ Displaystyle D _ {\ mathbf {v}} {f} ({\ boldsymbol {x}}) = \ sum _ {j = 1} ^ {n} v_ {j} {\ frac {\ parcial f} {\ parcial x_ {j}}}.} Ésta es una consecuencia de la definición de la derivada total . De ello se deduce que la derivada direccional es lineal en v, lo que significa que D v + w ( f) = D v ( f) + D w ( f).
La misma definición también funciona cuando f es una función con valores en R m . La definición anterior se aplica a cada componente de los vectores. En este caso, la derivada direccional es un vector en R m .
Derivada total, diferencial total y matriz jacobiana Artículo principal: Derivada total Cuando f es una función de un subconjunto abierto de R n a R m , entonces la derivada direccional de f en una dirección elegida es la mejor aproximación lineal af en ese punto y en esa dirección. Pero cuando n gt; 1, ninguna derivada direccional única puede dar una imagen completa del comportamiento de f. La derivada total da una imagen completa al considerar todas las direcciones a la vez. Es decir, para cualquier vector v que comience en a, la fórmula de aproximación lineal se cumple:
F ( a + v ) ≈ F ( a ) + F ′ ( a ) v .
{\ Displaystyle f (\ mathbf {a} + \ mathbf {v}) \ approx f (\ mathbf {a}) + f '(\ mathbf {a}) \ mathbf {v}.} Al igual que la derivada de una sola variable, f ′ ( a) se elige de modo que el error en esta aproximación sea lo más pequeño posible.
Si n y m son uno, entonces la derivada f ′ ( a) es un número y la expresión f ′ ( a) v es el producto de dos números. Pero en dimensiones superiores, es imposible que f ′ ( a) sea un número. Si fuera un número, entonces f ′ ( a) v sería un vector en R n mientras que los otros términos serían vectores en R m , y por lo tanto la fórmula no tendría sentido. Para que la fórmula de aproximación lineal tenga sentido, f ′ ( a) debe ser una función que envíe vectores en R n a vectores en R m , y f ′ ( a) v debe denotar esta función evaluada en v.
Para determinar qué tipo de función es, observe que la fórmula de aproximación lineal se puede reescribir como
F ( a + v ) - F ( a ) ≈ F ′ ( a ) v .
{\ Displaystyle f (\ mathbf {a} + \ mathbf {v}) -f (\ mathbf {a}) \ approx f '(\ mathbf {a}) \ mathbf {v}.} Observe que si elegimos otro vector w, entonces esta ecuación aproximada determina otra ecuación aproximada sustituyendo v por w. Determina una tercera ecuación aproximada sustituyendo w por v y a + v por a. Al restar estas dos nuevas ecuaciones, obtenemos
F ( a + v + w ) - F ( a + v ) - F ( a + w ) + F ( a ) ≈ F ′ ( a + v ) w - F ′ ( a ) w .
{\ Displaystyle f (\ mathbf {a} + \ mathbf {v} + \ mathbf {w}) -f (\ mathbf {a} + \ mathbf {v}) -f (\ mathbf {a} + \ mathbf { w}) + f (\ mathbf {a}) \ approx f '(\ mathbf {a} + \ mathbf {v}) \ mathbf {w} -f' (\ mathbf {a}) \ mathbf {w}. } Si asumimos que v es pequeño y que la derivada varía continuamente en a, entonces f ′ ( a + v) es aproximadamente igual af ′ ( a) y, por lo tanto, el lado derecho es aproximadamente cero. El lado izquierdo se puede reescribir de una manera diferente usando la fórmula de aproximación lineal con v + w sustituido por v. La fórmula de aproximación lineal implica:
0 ≈ F ( a + v + w ) - F ( a + v ) - F ( a + w ) + F ( a ) = ( F ( a + v + w ) - F ( a ) ) - ( F ( a + v ) - F ( a ) ) - ( F ( a + w ) - F ( a ) ) ≈ F ′ ( a ) ( v + w ) - F ′ ( a ) v - F ′ ( a ) w .
{\ Displaystyle {\ begin {alineado} 0 amp; \ approx f (\ mathbf {a} + \ mathbf {v} + \ mathbf {w}) -f (\ mathbf {a} + \ mathbf {v}) -f ( \ mathbf {a} + \ mathbf {w}) + f (\ mathbf {a}) \\ amp; = (f (\ mathbf {a} + \ mathbf {v} + \ mathbf {w}) -f (\ mathbf {a})) - (f (\ mathbf {a} + \ mathbf {v}) -f (\ mathbf {a})) - (f (\ mathbf {a} + \ mathbf {w}) -f (\ mathbf {a})) \\ amp; \ approx f '(\ mathbf {a}) (\ mathbf {v} + \ mathbf {w}) -f' (\ mathbf {a}) \ mathbf {v} -f '(\ mathbf {a}) \ mathbf {w}. \ end {alineado}}} Esto sugiere que f ′ ( a) es una transformación lineal del espacio vectorial R n al espacio vectorial R m . De hecho, es posible hacer de esto una derivación precisa midiendo el error en las aproximaciones. Suponga que el error en esta fórmula de aproximación lineal está acotado por una constante de tiempos || v ||, donde la constante es independiente de v pero depende continuamente de a. Luego, después de agregar un término de error apropiado, todas las igualdades aproximadas anteriores se pueden reformular como desigualdades. En particular, f ′ ( a) es una transformación lineal hasta un pequeño término de error. En el límite cuando v y w tienden a cero, debe ser una transformación lineal. Dado que definimos la derivada total tomando un límite cuando v llega a cero, f ′ ( a) debe ser una transformación lineal.
En una variable, el hecho de que la derivada sea la mejor aproximación lineal se expresa por el hecho de que es el límite de los cocientes en diferencias. Sin embargo, el cociente de diferencias habitual no tiene sentido en dimensiones superiores porque normalmente no es posible dividir vectores. En particular, el numerador y el denominador del cociente de diferencias ni siquiera están en el mismo espacio vectorial: el numerador se encuentra en el codominio R m mientras que el denominador se encuentra en el dominio R n . Además, la derivada es una transformación lineal, un tipo de objeto diferente tanto del numerador como del denominador. Para precisar la idea de que f ′ ( a) es la mejor aproximación lineal, es necesario adaptar una fórmula diferente para la derivada de una variable en la que estos problemas desaparecen. Si f : R → R, entonces la definición habitual de la derivada puede manipularse para mostrar que la derivada de f en a es el número único f ′ ( a) tal que
lim h → 0 F ( a + h ) - ( F ( a ) + F ′ ( a ) h ) h = 0.
{\ Displaystyle \ lim _ {h \ to 0} {\ frac {f (a + h) - (f (a) + f '(a) h)} {h}} = 0.} Esto es equivalente a
lim h → 0 | F ( a + h ) - ( F ( a ) + F ′ ( a ) h ) | | h | = 0
{\ Displaystyle \ lim _ {h \ to 0} {\ frac {| f (a + h) - (f (a) + f '(a) h) |} {| h |}} = 0} porque el límite de una función tiende a cero si y solo si el límite del valor absoluto de la función tiende a cero. Esta última fórmula se puede adaptar a la situación de muchas variables reemplazando los valores absolutos por normas .
La definición de la derivada total de f en a, por lo tanto, es que es la única transformación lineal f ′ ( a): R n → R m tal que
lim h → 0 ‖ F ( a + h ) - ( F ( a ) + F ′ ( a ) h ) ‖ ‖ h ‖ = 0.
{\ Displaystyle \ lim _ {\ mathbf {h} \ to 0} {\ frac {\ lVert f (\ mathbf {a} + \ mathbf {h}) - (f (\ mathbf {a}) + f '( \ mathbf {a}) \ mathbf {h}) \ rVert} {\ lVert \ mathbf {h} \ rVert}} = 0.} Aquí h es un vector en R n , por lo que la norma en el denominador es la longitud estándar en R n . Sin embargo, f ′ ( a) h es un vector en R m , y la norma en el numerador es la longitud estándar en R m . Si v es un vector que comienza en a, entonces f ′ ( a) v se llama el empuje hacia adelante de v por f y, a veces, se escribe f ∗ v.
Si la derivada total existe en a, entonces todas las derivadas parciales y direccionales de f existen en a, y para todo v, f ′ ( a) v es la derivada direccional de f en la dirección v. Si escribimos f usando funciones de coordenadas, de modo que f = ( f 1, f 2,..., f m), entonces la derivada total se puede expresar usando las derivadas parciales como matriz . Esta matriz se llama matriz jacobiana de f en a:
F ′ ( a ) = Jac a = ( ∂ F I ∂ X j ) I j .
{\ Displaystyle f '(\ mathbf {a}) = \ operatorname {Jac} _ {\ mathbf {a}} = \ left ({\ frac {\ partial f_ {i}} {\ partial x_ {j}}} \ right) _ {ij}.} La existencia de la derivada total f ′ ( a) es estrictamente más fuerte que la existencia de todas las derivadas parciales, pero si las derivadas parciales existen y son continuas, entonces la derivada total existe, está dada por el jacobiano y depende continuamente de una.
La definición de la derivada total subsume la definición de la derivada en una variable. Es decir, si f es una función de valor real de una variable real, entonces la derivada total existe si y solo si existe la derivada habitual. La matriz jacobiana se reduce a una matriz de 1 × 1 cuya única entrada es la derivada f ′ ( x). Esta matriz 1 × 1 satisface la propiedad de que f ( a + h) - ( f ( a) + f ′ ( a) h) es aproximadamente cero, en otras palabras que
F ( a + h ) ≈ F ( a ) + F ′ ( a ) h .
{\ Displaystyle f (a + h) \ approx f (a) + f '(a) h.} Hasta las variables cambiantes, esta es la afirmación de que la función es la mejor aproximación lineal de f en a. X ↦ F ( a ) + F ′ ( a ) ( X - a )
{\ Displaystyle x \ mapsto f (a) + f '(a) (xa)}
La derivada total de una función no da otra función de la misma manera que en el caso de una variable. Esto se debe a que la derivada total de una función multivariable tiene que registrar mucha más información que la derivada de una función de una sola variable. En cambio, la derivada total da una función desde el paquete tangente de la fuente al paquete tangente del objetivo.
El análogo natural de las derivadas totales de segundo, tercer y orden superior no es una transformación lineal, no es una función en el paquete tangente y no se construye tomando repetidamente la derivada total. El análogo de una derivada de orden superior, llamada chorro , no puede ser una transformación lineal porque las derivadas de orden superior reflejan información geométrica sutil, como la concavidad, que no se puede describir en términos de datos lineales como vectores. No puede ser una función en el paquete tangente porque el paquete tangente solo tiene espacio para el espacio base y las derivadas direccionales. Debido a que los chorros capturan información de orden superior, toman como argumentos coordenadas adicionales que representan cambios de dirección de orden superior. El espacio determinado por estas coordenadas adicionales se llama haz de chorros . La relación entre la derivada total y las derivadas parciales de una función tiene un paralelo en la relación entre el chorro de k- ésimo orden de una función y sus derivadas parciales de orden menor o igual que k.
Tomando repetidamente la derivada total, se obtienen versiones superiores de la derivada de Fréchet , especializadas en R p . La derivada total de k- ésimo orden puede interpretarse como un mapa
D k F : R norte → L k ( R norte × ⋯ × R norte , R metro )
{\ Displaystyle D ^ {k} f: \ mathbb {R} ^ {n} \ to L ^ {k} (\ mathbb {R} ^ {n} \ times \ cdots \ times \ mathbb {R} ^ {n }, \ mathbb {R} ^ {m})} que toma un punto x en R n y le asigna un elemento del espacio de k -mapas lineales de R n a R m - la "mejor" (en cierto sentido preciso) k -aproximación lineal af en ese punto. Al precomponerlo con el mapa diagonal Δ, x → ( x, x), una serie de Taylor generalizada puede comenzar como
F ( X ) ≈ F ( a ) + ( D F ) ( X - a ) + ( D 2 F ) ( Δ ( X - a ) ) + ⋯ = F ( a ) + ( D F ) ( X - a ) + ( D 2 F ) ( X - a , X - a ) + ⋯ = F ( a ) + ∑ I ( D F ) I ( X I - a I ) + ∑ j , k ( D 2 F ) j k ( X j - a j ) ( X k - a k ) + ⋯
{\ Displaystyle {\ begin {alineado} f (\ mathbf {x}) amp; \ approx f (\ mathbf {a}) + (Df) (\ mathbf {xa}) + \ left (D ^ {2} f \ derecha) (\ Delta (\ mathbf {xa})) + \ cdots \\ amp; = f (\ mathbf {a}) + (Df) (\ mathbf {xa}) + \ left (D ^ {2} f \ derecha) (\ mathbf {xa}, \ mathbf {xa}) + \ cdots \\ amp; = f (\ mathbf {a}) + \ sum _ {i} (Df) _ {i} (x_ {i} - a_ {i}) + \ sum _ {j, k} \ left (D ^ {2} f \ right) _ {jk} (x_ {j} -a_ {j}) (x_ {k} -a_ {k }) + \ cdots \ end {alineado}}} donde f ( a) se identifica con una función constante, x i - a i son las componentes del vector x - a, y ( Df) i y ( D 2 f) jk son las componentes de Df y D 2 f como lineal transformaciones.
Generalizaciones Artículo principal: Generalizaciones de la derivada El concepto de derivada se puede extender a muchos otros entornos. El hilo común es que la derivada de una función en un punto sirve como una aproximación lineal de la función en ese punto.
Una generalización importante de las preocupaciones derivados funciones complejas de variables complejas , como las funciones de (un dominio en) el números complejos C a C. La noción de derivada de tal función se obtiene reemplazando variables reales con variables complejas en la definición. Si C se identifica con R 2 escribiendo un número complejo z como x + iy, entonces una función diferenciable de C a C es ciertamente diferenciable como una función de R 2 a R 2 (en el sentido de que todas sus derivadas parciales existen), pero lo contrario no es cierto en general: la derivada compleja solo existe si la derivada real es lineal compleja y esto impone relaciones entre las derivadas parciales llamadas ecuaciones de Cauchy-Riemann - ver funciones holomórficas . Otra generalización se refiere a funciones entre variedades diferenciables o suaves . Hablando intuitivamente, tal variedad M es un espacio que se puede aproximar cerca de cada punto x por un espacio vectorial llamado su espacio tangente : el ejemplo prototípico es una superficie lisa en R 3 . La derivada (o diferencial) de un mapa (diferenciable) f: M → N entre variedades, en un punto x en M, es entonces un mapa lineal desde el espacio tangente de M en x hasta el espacio tangente de N en f ( x). La función derivada convierte en un mapa entre los fibrado tangente de M y N. Esta definición es fundamental en la geometría diferencial y tiene muchos usos; consulte pushforward (diferencial) y pullback (geometría diferencial) . La diferenciación también se puede definir para mapas entre espacios vectoriales de dimensión infinita , como los espacios de Banach y los espacios de Fréchet . Hay una generalización tanto de la derivada direccional, llamada derivada de Gateaux , como de la diferencial, llamada derivada de Fréchet . Una deficiencia de la derivada clásica es que muchas funciones no son diferenciables. Sin embargo, hay una manera de extender la noción de derivada para que todas las funciones continuas y muchas otras funciones puedan diferenciarse usando un concepto conocido como derivada débil . La idea es incrustar las funciones continuas en un espacio más grande llamado espacio de distribuciones y solo requerir que una función sea diferenciable "en promedio". Las propiedades de la derivada han inspirado la introducción y el estudio de muchos objetos similares en álgebra y topología; ver, por ejemplo, álgebra diferencial . El equivalente discreto de la diferenciación son las diferencias finitas . El estudio del cálculo diferencial se unifica con el cálculo de diferencias finitas en el cálculo de escalas de tiempo . Consulte también derivada aritmética . Historia Artículo principal: Historia del cálculo. El cálculo , conocido en su historia temprana como cálculo infinitesimal, es una disciplina matemática enfocada en límites , funciones , derivadas, integrales y series infinitas . Isaac Newton y Gottfried Leibniz descubrieron el cálculo de forma independiente a mediados del siglo XVII. Sin embargo, cada inventor afirmó que el otro le robó su trabajo en una amarga disputa que continuó hasta el final de sus vidas.
Ver también Notas Referencias Bibliografía Impresión Anton, Howard; Bivens, Irl; Davis, Stephen (2 de febrero de 2005), Calculus: Early Transcendentals Single and Multivariable (8a ed.), Nueva York: Wiley, ISBN 978-0-471-47244-5 Apostol, Tom M. (junio de 1967), Cálculo, vol. 1: Cálculo de una variable con una introducción al álgebra lineal , 1 (2a ed.), Wiley, ISBN 978-0-471-00005-1 Apostol, Tom M. (junio de 1969), Cálculo, vol. 2: Cálculo multivariable y álgebra lineal con aplicaciones , 1 (2a ed.), Wiley, ISBN 978-0-471-00007-5 Courant, Richard; John, Fritz (22 de diciembre de 1998), Introducción al cálculo y análisis, vol. 1, Springer-Verlag, ISBN 978-3-540-65058-4 Eves, Howard (2 de enero de 1990), Introducción a la historia de las matemáticas (6a ed.), Brooks Cole, ISBN 978-0-03-029558-4 Larson, Ron; Hostetler, Robert P.; Edwards, Bruce H. (28 de febrero de 2006), Cálculo: Funciones trascendentales tempranas (4a ed.), Houghton Mifflin Company, ISBN 978-0-618-60624-5 Spivak, Michael (septiembre de 1994), Cálculo (3.a ed.), Publish or Perish, ISBN 978-0-914098-89-8 Stewart, James (24 de diciembre de 2002), Cálculo (5.a ed.), Brooks Cole, ISBN 978-0-534-39339-7 Thompson, Silvanus P. (8 de septiembre de 1998), Calculus Made Easy (Ed. Revisada, actualizada, ampliada), Nueva York: St. Martin's Press, ISBN 978-0-312-18548-0 Libros en línea Crowell, Benjamin (2017), Fundamentos del cálculo (Govt. Of TN), TamilNadu Textbook Corporation (2006), Mathematics- vol.2 (PDF), archivado desde el original (PDF) el 2016-01-15, consultado el 2014-11-29 Garrett, Paul (2004), Notas sobre cálculo de primer año , Universidad de Minnesota Hussain, Faraz (2006), Comprensión del cálculo Keisler, H. Jerome (2000), Cálculo elemental: un enfoque que utiliza infinitesimales Mauch, Sean (2004), versión íntegra del libro de matemáticas aplicadas de Sean , archivado desde el original el 15 de abril de 2006 Sloughter, Dan (2000), Ecuaciones en diferencias a ecuaciones diferenciales Strang, Gilbert (1991), cálculo Stroyan , Keith D. (1997), Una breve introducción al cálculo infinitesimal Wikilibros, Cálculo enlaces externos
Contactos: mail@wikibrief.org
El contenido está disponible bajo la licencia CC BY-SA 3.0 (a menos que se indique lo contrario).