Story Transcript
Breve historia del ´ algebra matricial
ductos: el interior (v´ease la secci´on 6) y el exterior. Aplic´o estos productos para resolver problemas geom´etricos concretos (el producto exterior de vectores no es hoy una herramienta est´andar en la matem´atica moderna). La formulaci´on final se debe a Gibbs (1839– 1903) en un panfleto de circulaci´on privada entre sus alumnos y por Heaviside (1850– 1925) en el libro Electromagnetic Theory publicado en 1893. En ambos libros se introdujeron el producto escalar y el vectorial de forma moderna.
Estas breves notas pretenden mostrar c´omo han surgido en la historia algunos conceptos propios del ´algebra matricial. Se ha pretendido dar m´as ´enfasis a las ideas que a las biograf´ıas de los matem´aticos creadores de la teor´ıa. En la siguiente direcci´on http://www-groups.dcs.st-and.ac.uk se halla una colecci´on de biograf´ıas de los matem´aticos m´as famosos. La mayor parte de estas notas hist´oricas est´an sacadas de [1].
1. Geometr´ıa de IR2 y IR3 2. Matrices
Los antecedentes hist´oricos del estudio de la geometr´ıa plana y espacial se remontan a la introducci´on por Descartes (1596–1650) en el siglo XVII de la geometr´ıa anal´ıtica que lleva su nombre. La idea de vector entr´o en las matem´aticas calladamente. Stevin (1548–1620) emple´o la ley del paralelogramo en problemas de est´atica y Galileo (1564– 1642) enunci´o esta ley de forma expl´ıcita. Despu´es de la representaci´on geom´etrica de los n´ umeros complejos proporcionada por Wessel (1745–1818), Argand (1768–1822) y Gauss (1777–1855) fuera algo familiar, los matem´aticos se percataron de que los n´ umeros complejos pod´ıan usarse para trabajar los vectores en el plano. Sin embargo, la utilidad de los n´ umeros complejos est´a limitada a problemas planos. La creaci´on de un an´alogo tridimensional u ´til de los n´ umeros complejos se debe a Hamilton (1805–1865) cuando descubri´o los cuaterniones en 1843. Mientras Hamilton trabajaba con sus cuaterniones, Grassmann (1809–1877) estaba desarrollando la idea moderna de vector. En este sentido, Grassmann defini´o de forma moderna la suma y el producto por escalares de vectores de IRn e introdujo dos clases de pro-
Los determinantes surgieron cuando se empezaron a resolver los sistemas de ecuaciones lineales. En 1693, Leibniz (1646–1716) us´o un conjunto sistem´atico de ´ındices para los coeficientes de un sistema de tres ecuaciones lineales con tres inc´ognitas obteniendo un determinante. La soluci´on de ecuaciones lineales de dos, tres y cuatro inc´ognitas fue obtenida por Maclaurin (1698–1746) publicada en 1748 en su Treatise of algebra. Cramer (1704– 1752) public´o en 1750 el libro Introduction a l’analyse des lignes courbes alg´ebriques la ` regla para determinar los coeficientes de una c´onica general pasando por 5 puntos dados utilizando determinantes. En 1776 Bezout (1730–1783) demostr´o que la anulaci´on del determinante de un sistema de dos ecuaciones con dos inc´ognitas homog´eneo es una condici´on necesaria y suficiente para que haya soluciones no nulas. Vandermonde (1735–1796), en 1776, fue el primero en dar una exposici´on coherente y l´ogica de la teor´ıa de los determinantes como tales, aplic´andolos a los sistemas de ecuaciones lineales. Proporcion´o una regla para 1
que la idea de matriz es l´ogicamente anterior a la de determinante, pero hist´oricamente el orden fue el inverso. Cayley fue el primero en desarrollar de modo independiente el concepto de matriz en un art´ıculo publicado en 1855, A memoir on the theory of matrices. Defini´o las matrices nula y unidad, la suma de matrices y se˜ nala que esta operaci´on es asociativa y conmutativa. Cayley toma directamente de la representaci´on del efecto de dos transformaciones sucesivas la definici´on de multiplicaci´on de dos matrices. Cayley se˜ nala que una matriz m × n puede ser multiplicada solamente por una matriz n × p. En este mismo art´ıculo establece que una matriz tiene inversa si y s´olo si su determinante es nulo. Adem´as prueba
calcular determinantes por medio de submatrices de orden 2. En un ensayo de 1772 “Recherches sur le calcul int´egral et sur le syst`eme du monde”, Laplace generaliz´o el m´etodo de Vandermonde. Como hemos visto, los determinantes surgieron en la soluci´on de los sistemas de ecuaciones lineales; pero pronto surgieron en los siguientes problemas: Transformaci´on de coordenadas, soluci´on de sistemas de ecuaciones diferenciales, o cambios de variables en las integrales dobles y triples, por citar s´olo algunos. La palabra determinante, usada por primera vez por Gauss, la aplic´o Cauchy (1789–1857) a los determinantes ya aparecidos en el siglo XVIII en un art´ıculo publicado en 1815. La disposici´on de los elementos en tabla y la notaci´on de sub´ındices dobles se le debe a ´el. Binet (1786–1856), en 1812, enunci´o el teorema de multiplicaci´on, demostrado correctamente por Cauchy, que en notaci´on moderna es det(AB) = det(A) det(B). Heinrich Scherk (1798–1885) en su “Mathematische Abhandlungen” aport´o nuevas reglas para de los determinantes, por ejemplo, si una fila es combinaci´on lineal de otras, el determinante es nulo; o la regla para calcular determinantes triangulares. Dir´ıamos que el campo de las matrices estuvo bien formado a´ un antes de crearse. Los determinantes fueron estudiados a mediados del siglo XVIII. Un determinante contiene un cuadro de n´ umeros y parec´ıa deducirse de la inmensa cantidad de trabajos sobre los determinantes que el cuadro pod´ıa ser estudiado en s´ı mismo y manipulado para muchos prop´ositos. Quedaba por reconocer que al cuadro como tal se le pod´ıa proporcionar una identidad independiente de la del determinante. El cuadro por s´ı mismo es llamado matriz. La palabra matriz fue usada por primer vez por Sylvester (1814–1897) en 1850. Es cierto, como dice Cayley (1821–1895),
A−1 =
1 Adj(At ). det(A)
(1)
Cayley asegur´o que el producto de dos matrices puede ser la matriz nula siendo las dos matrices invertibles. En realidad Cayley se equivoc´o: Si AB = 0, entonces A ´o B no tienen inversa (¿por qu´e?) A partir de este momento los trabajos sobre matrices se disparan. Debemos citar los trabajos de Jordan (1838–1922), Rouch´e (1832– 1910) y a Frobenius (1849–1917). En el siglo XX es rara la rama de la matem´atica aplicada que no use la teor´ıa de matrices. Podemos citar una afirmaci´on prof´etica hecha por el f´ısico Tait (1831–1901) a mediados del siglo XIX: “Cayley est´ a forjando las armas para las futuras generaciones de f´ısicos”.
3. Sistemas de ecuaciones lineales Como ya mencionamos en la secci´on 2, los sistemas de ecuaciones lineales comenzaron a ser estudiados sistem´aticamente por Leibniz y Cramer a mediados del siglo XVIII. Este u ´ltimo matem´atico, expuso lo que hoy conocemos como regla de Cramer para los sistemas de orden 3. A mediados del siglo XIX fue Cayley, al 2
estudiar las matrices, quien dedujo la f´ormula general de la regla de Cramer y quien expuso claramente la condici´on necesaria y suficiente para que un sistema cuadrado de ecuaciones lineales tuviera soluci´on u ´nica, a saber, que la matriz de los coeficientes del sistema fuera invertible. Frobenius introdujo la noci´on de rango de una matriz en 1879, aunque en relaci´on con los determinantes. Esta definici´on permiti´o generalizar el teorema que hoy conocemos como teorema de Rouch´e-Frobenius. Gauss dedujo a principios del siglo XIX un m´etodo que permite resolver cualquier sistema de ecuaciones lineales. Este m´etodo cay´o en el olvido pues es m´as engorroso que la presentaci´on matricial hecha por Cayley y por Frobenius. Jordan1 dedujo un algoritmo alternativo a la f´ormula (1) presentada por Cayley para calcular la inversa de una matriz. Hoy conocemos este m´etodo como el algoritmo de Gauss-Jordan. A medida que en otras disciplinas cient´ıficas se iba encontrando que los problemas se pod´ıan plantear en t´erminos de sistemas de ecuaciones lineales los matem´aticos se empezaron a preocupar de aspectos como el n´ umero de operaciones en un algoritmo. Pronto se dieron cuenta que la f´ormula (1) para el c´alculo de la inversa es muy costosa por el n´ umero de operaciones, mientras que el m´etodo de Gauss exig´ıa un n´ umero considerablemente menor. Un problema muy complicado es el siguiente: ¿De qu´e forma contribuyen los errores de redondeo individuales al error total? Fue atacado por primera vez por Von Neumann, si bien s´olo encontr´o estimaciones muy complicadas. Actualmente se utiliza el m´etodo de
la pivotaci´on parcial, una ligera variante del m´etodo de Gauss, para intentar que los errores parciales sean los menores posibles. En 1948, el matem´atico ingl´es Alan Turing desarroll´o la factorizaci´on LU.
4. Espacios vectoriales Como ya se vi´o en la secci´on 1, la idea de vector de IRn entr´o en las matem´aticas de forma callada. M´as a´ un, podemos decir que la idea de vector abstracto fue introducida por Euler (1707–1783) sin que ´este se diera cuenta: al resolver la ecuaci´on diferencial que hoy llamamos lineal de orden n homog´enea de coeficientes constantes, Euler indica que la soluci´on general ha de contener n constantes arbitrarias y que dicha soluci´on vendr´ıa dada por combinaciones de n soluciones particulares independientes. De un modo m´as preciso, si y = y(t) es la soluci´on, entonces y(t) = C1 y1 (t) + · · · + Cn yn (t), donde C1 , . . . , Cn son constantes arbitrarias e y1 , . . . , yn son soluciones independientes. Euler no aclara lo que para ´el son funciones independientes. En trabajos posteriores, Lagrange (1736–1813) extendi´o este resultado a ecuaciones lineales homog´eneas de coeficientes variables. Fue Cauchy quien aisl´o la noci´on de independencia lineal y la aplic´o al estudio de ecuaciones diferenciales. Curiosamente se desarrollaron los conceptos b´asicos en el espacio de las funciones continuas antes que en IRn . En 1844, Grassmann, en el libro Die lineale ausdehnungslehre, axiomatiz´o el concepto de independencia lineal aplic´andolo a los elementos de IRn . La exposici´on de Grassmann estaba ligada con ideas geom´etricas, pero a ´el se le deben los conceptos claves de la teor´ıa de espacios vectoriales. El primero en dar la definici´on axiom´atica actual de espacio vectorial fue Peano (1858–1932) en su libro Calcolo geometrico secondo l’Ausdehnungslehre di
1 Aunque ha habido confusi´ on sobre qu´e Jordan debe recibir el m´erito por este algoritmo, ahora parece claro que este m´etodo fue introducido por Wilhem Jordan (1842–1899) y no por el m´ as conocido Marie Ennemond Camile Jordan.
3
H. Grassmann preceduto dalle operazioni delEn lenguaje moderno, (2) equivale a escribir la logica deduttiva publicado en 1888. x = Ax0 , donde A = (aij ), x = (x, y, z)t y x0 = (x0 , y 0 , z 0 )t . Mientras que las condiciones (3) y (4) equivalen a AAt = I. 5. Aplicaciones lineales La relaci´on entre matriz y aplicaci´on linDescartes, en uno de sus intentos por algebrizar la geometr´ıa plana estudi´o la relaci´on eal se hizo m´as patente cuando Cayley esentre (x, y) y (x0 , y 0 ) si el segundo se obtiene cribi´o de forma matricial las ecuaciones de los girando un ´angulo α el primer punto. Jean diferentes tipos de transformaciones geom´etriBernouilli (1667–1748) en una carta a Leib- cas. Tambi´en escribi´o de forma matricial las niz en 1715 introdujo los planos coordena- ecuaciones obtenidas por Lagrange obteniendos en IR3 tal como los conocemos hoy en do un tipot particular de matrices: las ortogod´ıa. R´apidamente se empezaron a estudiar nales (AA = I). El concepto de aplicaci´on las ecuaciones de las principales transforma- lineal en su forma actual se le debe a Peano ciones geom´etricas en el espacio: proyecciones, cuando axiomatiz´o la definici´on de espacio vectorial. simetr´ıas y giros. Hoy en d´ıa las aplicaciones lineales son imLos siguientes pasos los dieron Euler y Laportantes en las matem´aticas y en las ciengrange desde dos puntos de vista: el geom´etrico y el anal´ıtico. Euler, al estudiar la ecuaci´on cias aplicadas. Las aplicaciones lineales modegeneral de segundo grado en tres coordenadas lan las transformaciones geom´etricas as´ı cocambi´o los ejes para que la expresi´on resulte mo las ecuaciones lineales. Muchos problelo m´as sencilla posible, de esta manera, fue mas de la ingenier´ıa se plantean usando macapaz de clasificar todas las cu´adricas2 . La- trices, y por tanto, con aplicaciones lineales. grange, en un ensayo sobre la atracci´on de los Muchos problemas complicados se aproximan esferoides, proporcion´o la forma general de los mediante la linealizaci´on prefiriendo estudiar los problemas lineales que surgen. Incluso en movimientos que conservan distancias: la mec´anica cu´antica un observable es cierto 0 0 0 operador lineal en un espacio vectorial comx = a11 x + a12 y + a13 z 0 0 0 y = a21 x + a22 y + a23 z (2) plejo. 0 0 0 z = a31 x + a32 y + a33 z
6. Espacio vectorial eucl´ıdeo donde los coeficientes aij verifican a211 a212 a213
+ + +
a221 a222 a223
+ + +
a231 a232 a233
= 1
= 1 = 1
Cuando los matem´aticos posteriores a Descartes desarrollaron la geometr´ıa anal´ıtica no se dieron cuenta que el concepto de perpendicularidad era independiente del concepto de paralelismo. Los desarrollos obtenidos por los matem´aticos en los siglos XVIII y principios del XIX los consideraron como parte del mismo tipo de geometr´ıa. Fue a principios del siglo XIX, con el estudio de la geometr´ıa proyectiva y las geometr´ıas no eucl´ıdeas cuando se observ´o que las ideas de paralelismo e incidencia son conceptos independientes de la m´etrica del espa-
(3)
y
a11 a12 + a21 a22 + a31 a32 = 0 a11 a13 + a21 a23 + a31 a33 = 0 a12 a13 + a22 a23 + a32 a33 = 0
(4)
2
Al hacer esta clasificaci´ on Euler descubri´ o el paraboloide hiperb´ olico, superficie desconocida para los griegos.
4
Desde el punto de vista del an´alisis, ya Euler se dio cuenta, al estudiar el desarrollo de una funci´on en serie trigonom´etrica, la relaci´on
cio. El desarrollo de la teor´ıa que hoy conocemos como producto interno vino de dos caminos diferentes: el ´algebra y el an´alisis. Grassmann defini´o en su libro Die lineale ausdehnungslehre lo que llam´o cantidad extensiva (un tipo de hipern´ umero con n componentes). Para Grassmann un hipern´ umero es una expresi´on del tipo
Z
−π
i 6= j,
{1, cos x, sen x, cos(2x), sen(2x), . . .}.
donde los αi son n´ umeros reales y donde ei son unidades cualitativas representadas geom´etricamente por segmentos de l´ınea dirigidos (de una unidad de longitud) trazados desde un origen com´ un determinando un sistema de ejes ortogonal. Las αi ei son m´ ultiplos de las unidades primarias y est´an representadas por longitudes αi a lo largo de los ejes respectivos, mientras que α est´a representado por un segmento de l´ınea dirigido en el espacio cuyas proyecciones sobre los ejes son las longitudes αi . Grassmann define la suma y el producto por escalares
Legendre (1752–1833) obtuvo, al estudiar la ecuaci´on diferencial que hoy lleva su nombre, una serie de polinomios pi que satisfacen Z
(
1
−1
pi (x)pj (x) dx =
1 si i = j, 0 si i 6= j.
Sturm (1803–1855) y Liouville (1809–1882) generalizaron este tipo de funciones y establecieron una clara analog´ıa del comportamiento de todas estas funciones con el desarrollo hecho por Grassmann. La teor´ıa tuvo que esperar a los trabajos de Hilbert (1862– 1943) sobre las ecuaciones integrales definiendo con claridad un producto interno en el espacio de las funciones que generaliza al producto de Grassmann. Aunque Hilbert no desarroll´o un lenguaje geom´etrico puso los fundamentos para el desarrollo de la teor´ıa general que fue hecha por Schmidt (1876–1959) a principios del siglo XX. Consideraba las funciones como elementos de un espacio de dimensi´on infinita, introdujo la notaci´on que hoy utilizamos, defini´o el concepto de perpendicularidad, norma y dedujo los principales teoremas: Pit´agoras, desigualdad de Bessel, desigualdad de CauchySchwarz y la desigualdad triangular. En 1958, J. H. Wilkinson desarroll´o la factorizaci´on QR a partir del proceso de ortogonalizaci´on de Gram-Schmidt. Al matem´atico dan´es Jorgen Pedersen Gram (1850-1916) se
(α1 e1 + · · · + αn en ) + (β1 e1 + · · · + βn en ) = (α1 + β1 )e1 + · · · + (αn + βn )en , y λ(α1 e1 + · · · + αn en ) = (λα1 )e1 + · · · + (λαn )en Grassmann introdujo dos clases de productos, el interno y el externo. Para el primero Grassmann postul´o ei |ej =
fi (x)fj (x) dx = 0,
siendo fi , fj cualesquiera funciones del llamado sistema trigonom´etrico:
α = α1 e1 + α2 e2 + · · · + αn en ,
(
π
1 si i = j, 0 si i 6= j,
la propiedad distributiva con respecto a la suma, la conmutativa y (αe)|f = α(e|f ), siendo e y f dos hipern´ umeros. Grassmann define el valor num´erico de un hipern´ umero (lo que hoy llamamos norma) y ´angulo entre dos hipern´ umeros. 5
le recuerda sobre todo por este proceso de or- tar hacer m´ınima la funci´on de dos variables togonalizaci´on que construye un conjunto orn X togonal de vectores a partir de un conjunto inf (a, b) = (a + bxi − yi )2 , dependiente. Sin embargo, ´el no fue el primero i=1 en usar este m´etodo. Parece ser que fue descubierto por Laplace y fue usado esencialmente Para ello se iguala ∂f /∂a y ∂f /∂b a cero obteniendo un sistema de ecuaciones. Moderpor Cauchy in 1836. namente se prefiere deducir este sistema por m´etodos algebraicos, ya que si lo que se pre7. Aproximaci´ on m´ınimos-cuadr´ atica tende es minimizar la norma de cierto vecEn el primer d´ıa del a˜ no 1801, un cuerpo, tor de IRn , parece claro que podemos utilizar posteriormente identificado como un asteroide t´ecnicas de producto interior. y llamado Ceres, fue descubierto mientras que 8. Teor´ıa espectral se aproximaba al Sol. Los astr´onomos fueron incapaces de calcular su ´orbita, a pesar de El tema de los valores propios apareque pudieron observar este cuerpo durante 40 ci´o cuando Euler, en el primer tercio del siglo d´ıas seguidos hasta que lo perdieron de vista. XVIII, estudi´o sistem´aticamente la ecuaci´on Despu´es de s´olo tres observaciones Gauss de- general de segundo grado en dos y tres varisarroll´o una t´ecnica para calcular su ´orbita ables en el plano y en el espacio respectivacon tal precisi´on que los astr´onomos a finales mente. Demuestra que existen unos ejes perde 1801 y principios de 1802 pudieron lo- pendiculares donde la expresi´on de la c´onica calizar Ceres sin ninguna dificultad. Con este o cu´adrica es especialmente sencilla. Posteriavance en astronom´ıa, Gauss logr´o un r´api- ormente en 1760 en su libro Recherches sur do reconocimiento en el ´ambito cient´ıfico. Su la courbure des surfaces, al estudiar las secm´etodo, que no fue descrito hasta 1809 en el ciones normales de una superficie en un punlibro Theoria motus corporum coelestium, to- to encuentra que hay dos planos mutuamente dav´ıa es usado hoy en d´ıa y s´olo requiere unas ortogonales cuyas secciones proporcionan las pocas modificaciones para adaptarse a los or- curvas de m´axima y m´ınima curvatura. Postedenadores modernos. riormente se vio que estas dos situaciones son Tres a˜ nos antes y de modo independiente, casos particulares del hecho de que una matriz Legendre en su Nouvelles m´ethodes pour la sim´etrica sea ortogonalmente diagonalizable. d´etermination des orbites des com`etes, desa- La noci´on de polinomio caracter´ıstico aparece rroll´o el primer tratamiento del m´etodo de los expl´ıcitamente en el trabajo de Lagrange som´ınimos cuadrados. bre sistemas de ecuaciones diferenciales en En esencia el m´etodo de Gauss fue como 1774 y en el trabajo de Laplace (1749–1827) sigue. Si se obtiene una tabla de medidas entre en 1775. las variables x e y ligadas por medio de la Cauchy reconoci´o el problema del valor prorelaci´on y = a + bx: pio en la obra de Euler, Lagrange y Laplace. En 1826 tom´o el problema de la reducci´on de x x1 x2 · · · xn la forma cuadr´atica en tres variables y dey y1 y2 · · · y n mostr´o que la ecuaci´on caracter´ıstica es invariante para cualquier cambio en los ejes Y se busca la recta y = a + bx que mejor se rectangulares, en lenguaje moderno, si A es “ajusta” a esta tabla de puntos, se debe inten- una matriz cuadrada y si S es invertible, en6
los ejes principales generalizado en espacios de dimensi´on infinita. Hilbert llev´o a cabo un proceso de paso al l´ımite que le permiti´o generalizar resultados sobre sistemas finitos de ecuaciones lineales. Sobre esta base decidi´o que un tratamiento de las formas cuadr´aticas infinitas “vendr´ıa a completar de una manera esencial la teor´ıa bien conocida de las formas cuadr´ aticas con un n´ umero finito de variables”.
tonces det(A − λI) = det(SAS −1 − λI). En 1829 Cauchy prueba que los valores propios de una matriz sim´etrica son reales. Las t matrices herm´ıticas (A = A ) fueron introducidas por Hermite (1822–1901). Frobenius en 1878 prueba la diagonalizabilidad de las matrices ortogonales, extendiendo en 1883 la t demostraci´on a matrices unitarias (AA = I). El teorema espectral para matrices normales t t (AA = A A) es debido a Toeplitz (1881– 1940). Jacobi (1804–1851) dio la soluci´on del sistema de ecuaciones diferenciales Y 0 = AY , siendo A una matriz diagonalizable. Jordan resolvi´o el caso no diagonalizable usando los conceptos de matrices similares (dos matrices A y B se dicen similares si existe una matriz invertible S tal que A = SBS −1 ) y de ecuaci´on caracter´ıstica. En el libro Trait´e des substitutions (1870) demostr´o que una matriz puede ser transformada a una forma can´onica hoy llamada forma can´onica de Jordan. Un paso simult´aneo hacia el concepto de valor y vector propio en un espacio vectorial abstracto lo dieron Sturm y Liouville al estudiar las ecuaciones que hoy llevan su nombre. Observaron que si φ es cierto operador diferencial, entonces existe una sucesi´on de valores λn tales que existen funciones yn no nulas ortogonales entre s´ı verificando φ(yn ) = λn yn . Desde 1904 hasta 1910, Hilbert estudi´o la Rb ecuaci´on integral u(x) = λ a K(x, y)u(y) dy. Supone que K es sim´etrico y define lo que es un operador autoadjunto para un espacio de funciones, lo que le permite hacer uso de las propiedades de las matrices sim´etricas en el caso finito. En concreto demuestra que el R operador φ(u)(x) = ab K(x, y)u(y) dy es autoadjunto. Las autofunciones asociadas a los distintos autovalores son perpendiculares dos a dos. Con estos resultados Hilbert puede demostrar lo que se conoce como el teorema de
9. Aplicaciones de la teor´ıa espectral Como se vio en la secci´on anterior, Cauchy se dio cuenta de la estrecha relaci´on entre los valores y vectores propios de una matriz sim´etrica con las direcciones principales y las longitudes de los ejes de la c´onica asociada a esta matriz sim´etrica. El motivo de introducir el concepto de ortogonalmente diagonalizable fue precisamente ´este. Una de las primeras aplicaciones de la teor´ıa de los valores y vectores propios fue el estudio de las sucesiones dadas por recurrencia lineales, por ejemplo la sucesi´on de Fibonacci. a1 = 1, a2 = 1, an+2 = an+1 + an ∀n ≥ 1. La t´ecnica que a´ un usamos hoy en d´ıa se reduce al c´alculo de la potencia de una matriz. M´arkov (1856–1922) fue el primero en estudiar los procesos estoc´asticos no dependientes del tiempo, llamados hoy cadenas de M´arkov. Una cadena de M´arkov es una sucesi´on de variables dependientes X(ti ) = (x1 (ti ), . . . , xn (ti )) identificadas por valores discretos crecientes de ti (usualmente el tiempo) con la propiedad de que cualquier predicci´on de X(ti ) es s´olo funci´on de X(ti−1 ). Esto es, el valor futuro de la variable X depende s´olo del valor presente y no de los valores en el pasado. Utilizando la teor´ıa de diagonalizaci´on de matrices M´arkov pudo estudiar completamente las cadenas de M´arkov donde 7
la relaci´on entre X(ti ) y X(ti−1 ) es lineal. Su trabajo adem´as ha sido aplicado a la biolog´ıa. En 1945 Leslie, introdujo un cierto tipo de matrices (llamadas hoy en d´ıa matrices de Leslie con el fin de estudiar problemas de evoluci´on de poblaciones de animales.
versity Press, 1972. (Hay traducci´on castellana: El pensamiento matem´atico: de la antig¨ uedad a nuestros d´ıas. Alianza Universidad.) Julio Ben´ıtez L´opez Universidad Polit´ecnica de Valencia
Breve cronolog´ıa 1693. Leibniz
6 de Noviembre de 2007
1750. Cramer: resoluci´on de sistemas de ecuaciones lineales. Final del siglo XVIII. Lagrange: Formas bilineales para la optimizaci´on de una funci´on real de dos o m´as variables 1800 Gauss: Eliminaci´on gaussiana (en el siglo III se descubri´o en China este m´etodo para sistemas 3 × 3. ´ 1844 Grassmann: Algebra vectorial. 1848 Sylvester: Introdujo el t´ermino matriz. 1855 Cayley: Define la multiplicaci´on matricial motivado por la composici´on de transformaciones. Tambi´en introdujo las inversas. 1878 Frobenius: Introdujo el rango y prov´o el Teorema de Cayley-Hamilton. 1888 Peano: Di´o la definici´on moderna de espacio vectorial. 1942 von Neumann: Defini´o el n´ umero de condici´ on de una matriz que sirve para estudiar la sensibilidad de un sistema de ecuaciones lineales. 1948 Turing: Introdujo la factorizaci´on LU. 1958 Wilkinson: Introdujo la factorizaci´on QR.
Referencias [1] M. Kline: Mathematical Thought From Ancient to Modern Times. Oxford Uni8