Provient du message de
Seiyar/Alucard
En même temps en général, c'est de l'algebre les matrices
Plutôt de l'Algèbre Linéaire même
Y compris la Jacobienne et la Hessienne. N'oublie pas que la différentiabilité se définit pour une application d'un EVN dans un autre, comme l'existence d'une application linéaire bien particulière. Et la matrice Jacobienne en est la matrice relativement aux bases canoniques de des espaces de départ et d'arrivée IR^n et IR^m (quand c'est le cas).
Le tenseur métrique, itou (ainsi que toutes les formes différentielles d'ailleurs, même s'il n'y a plus de représentation matricielle possible dès que le degré est plus que 2).
Je vais même t'étonner : il y a un moyen de faire de l'analyse tensorielle sur des sous-variétés différentiables juste à l'aide d'une définition intrinsèque sur des espaces vectoriels, sans formes différentielles. J'ai un truc là dessus, mais pas sous la main, faudrait que je le retrouve.
Finalement, je met pas mal de choses dans l'algèbre linéaire
Les méthodes que j'ai décrites sont des méthodes d'algèbre linéaire à mon sens, même si la présence d'approximations et d'algorithmes (et pourtant, les preuves des théorèmes usuels sur les formes bilinéaires symétriques - Sylvester et Gram - Schmidt, ce ne sont rien d'autre que des algos dans le fond) fait que l'on range cela dans l'analyse numérique.
Tiens, et puis une bonne partie de l'analyse fonctionnelle la plus formelle (justement Riesz, Lax - Milgram, les Hilbert et Sobolevs), ce n'est rien d'autre que de l'algèbre linéaire matînée d'un peu de théorie de l'intégration,
a priori (sous réserve, j'ai pas toutes les preuves en tête non plus), je pense qu'on doit pouvoir généraliser pas mal de choses aux espaces vectoriels normés