Enfrascado en mi puesta a punto, era el turno de repasar la integración múltiple. Seguimos con materia muy elemental, pero uno ya se va topando con cuestiones no tan triviales, al menos para alguien que lleva sin tocar una función desde que Falcao jugaba en el Atleti. Uno de los conceptos que han sido objeto de mi reflexión y que apenas ocupan un par de líneas en los manuales de cálculo diferencial es el determinante jacobiano, el cual debe su nombre al matemático prusiano Carl Gustav Jakob Jacobi.
Voy a presuponer que el lector promedio de este blog no es un cualquiera y está familiarizado con el cálculo diferencial (\(0 \; \text{lectores} \;\;\Longrightarrow\;\; \text{Conocimiento Promedio}= 0\)), así que obviaré algunas explicaciones sobre lo que es una integral. Por otra parte, como todavía no domino el lenguaje formal matemático, voy a tratar de explicar esto del jacobiano con mis palabras con los mínimos atropellos posibles. Allá voy.
Cuando uno dedica sus ratos libres a pelearse con cachivaches diferenciales, a menudo aparecen integrales múltiples un poco cabronas que no se dejan resolver por los medios habituales (hola \( \iint_{\RR^2} \cos(x^2+y^2)\,\dd x \dd y\)) y requieren un cambio de variables.
Hasta donde alcanza mi conocimiento, uno de los cambios de variables más comunes (al menos el que más aparece en los manuales) es el de coordenadas cartesianas a coordenadas polares. En libros poco reflexivos como el Coquillat es habitual que aparezca sintetizado tal que así:
Dada una integral que requiere un cambio a polares:
\(
I = \iint_{x^2+y^2 \le R^2} \cos(x^2+y^2)\,\dd x \dd y
\)
Aplicamos el siguiente método de cambio de variables:
\(
x = r\cos\theta, \quad y = r\sin\theta,
\quad \dd x\dd y = r\,\dd r\dd\theta
\)
Y obtenemos una integral que se puede resolver cómodamente:
\(
I = \int_{0}^{2\pi} \int_{0}^{R} \cos(r^2)\, r \,\dd r \dd\theta
\)
En época de exámenes, uno suele ir con prisa y no necesita saber mucho más. Aplica el cambio, resuelve, aprueba y que le jodan a Jacobi. Ahora bien, yo no tengo ningún examen a la vista, tampoco me espera nadie, y me generaba un poco de vacío existencial no saber de dónde salía esa \(r\) misteriosa en \( r \,\dd r \dd\theta\), así que agarré un manual un poco menos parco en palabras, el cual decía lo siguiente:
La aplicación del cambio de variables en la integración doble requiere realizar los siguientes pasos:
1. En primer lugar, la función del integrando debe expresarse en términos de las variables
\(u\) y \(v\), lo que se consigue haciendo las sustituciones literales
\(
x = g_1(u,v), \quad y = g_2(u,v).
\)
Además, dicha función se debe multiplicar por el valor absoluto del jacobiano de la transformación:
\(
J(u,v) =
\begin{vmatrix}
\dfrac{\partial x}{\partial u} & \dfrac{\partial x}{\partial v} \\[6pt]
\dfrac{\partial y}{\partial u} & \dfrac{\partial y}{\partial v}
\end{vmatrix}.
\)
\(
\dd x\,\dd y = |J|\,\dd r\,\dd \theta
\)
2. En segundo lugar, es necesario identificar la región transformada y expresarla como una unión de regiones elementales con intersección vacía (salvo acaso en sus fronteras).
En las aplicaciones, una vez fijada la función \(g\), la región del plano \(g(D^*)\) es conocida, debiéndose identificar la región \(D^*\) en términos de \(u\) y \(v\).
Ahí ya me hablaban un poco más del jacobiano, Lo que me están diciendo básicamente es que si hago el cambio de variable, tengo que meter el valor absoluto del determinante de las derivadas parciales en la nueva función y, si la integral es definida, las fronteras de la región elemental también debo pasarlas a las nuevas variables. Veamos si eso es cierto y resolviendo el determinante de las derivadas parciales aparece la \(r\):
\(
x = r\cos\theta, \qquad y = r\sin\theta
\)
\(
J(r,\theta)
= \frac{\partial(x,y)}{\partial(r,\theta)}
=
\begin{vmatrix}
\dfrac{\partial x}{\partial r} & \dfrac{\partial x}{\partial \theta} \\[6pt]
\dfrac{\partial y}{\partial r} & \dfrac{\partial y}{\partial \theta}
\end{vmatrix}
=
\begin{vmatrix}
\cos\theta & -r\sin\theta \\[6pt]
\sin\theta & \;\; r\cos\theta
\end{vmatrix}
= r(\cos^2\theta+\sin^2\theta)= r
\)
Yepaaa, ¡ahí tenemos nuestra erre!
\(
\bigl|J(r,\theta)\bigr|=r,
\qquad
\dd x\,\dd y = r\,\dd r\,\dd \theta.
\)
Aun así, mi curiosidad no estaba del todo saciada y quería llegar al fondo del asunto. ¿Por qué es necesario el jacobiano en el cambio de variables? ¿Qué esconde conceptualmente, filosóficamente (e incluso ontológicamente) ese operador? ¿Qué pasa si es 0? ¿Qué pasa si no lo pongo?
Cuando no entiendo algo acudo a alguna IA, como la primera respuesta me suele dejar con más dudas, le digo que me lo explique con ejemplos, con metáforas y con analogías. Al final, creo que más o menos lo acabé pillando. El jacobiano no es otra cosa que el transmutador entre dos sistemas de coordenadas. Algo así como el compromiso entre ellos. Te da información sobre cómo se deforma geométricamente cada ‘píxel’ entre un sistema de coordenadas y otro. Y si es nulo significa que el nuevo sistema de coordenadas está machacado por el viejo. Y ya está, eso es todo. No hay más, ni tampoco menos.
Aunque no hayamos empezado de la mejor manera, me conviene llevarme bien con el tal Jacobi. Los que entienden de esto afirman que fue un gran matemático, así que intuyo que esta ha sido la primera vez pero no la última que tropiezo con su nombre.