Cambios en las nociones de número, unidad, cantidad y magnitud Bernardo Gómez Alfonso. Dpto. De didáctica de la matemática. U. De Valencia

Cambios en las nociones de número, unidad, cantidad y magnitud Bernardo Gómez Alfonso. Dpto. De didáctica de la matemática. U. De Valencia. Resumen A

0 downloads 106 Views 101KB Size

Recommend Stories


LA RAZÓN EN SEMEJANZA: EL CASO DEL PERRITO Bernardo Gómez Alfonso. Departamento de Didáctica de las Matemáticas. Universidad de Valencia RESUMEN Este
LA RAZÓN EN SEMEJANZA: EL CASO DEL PERRITO Bernardo Gómez Alfonso. Departamento de Didáctica de las Matemáticas. Universidad de Valencia RESUMEN Este

Magnitud escalar o escalar: es aquella que se especifica por su cantidad y una unidad
Magnitudes ESCALARES Y VECTORIALES Magnitud escalar o escalar: es aquella que se especifica por su cantidad y una unidad Ejemplos: masa 10 Kg., longi

El Bernardo de Bernardo de Balbuena (1624)
¿Marte o Venus? elementos líricos en El Bernardo de Bernardo de Balbuena (1624) Elizabeth B. Davis THE ÜHIO STATE UNIVERSITY, COLUMBUS MARTE o VENUS;

LA MAGNITUD DE LA INFORMALIDAD:
Organización Internacional del Trabajo Flor Brown Lilia Domínguez LA MAGNITUD DE LA INFORMALIDAD: Tamaño de empresa y sectores productivos por estad

Cantidad Unidad Descripcion
Cantidad Unidad Descripcion 1 PIEZA MAQUINA DE ESCRIBIR MECANICA MARCA OLYMPIA 1 PIEZA MONITOR SUPER VGA MARCA HP HEWLETT PACKARD MODELO D2804A SERIE

MEDIDA = CANTIDAD + UNIDAD
Lo básico de Física y Química en 3º E.S.O. Magnitudes y Unidades 1. Factores de conversión BÁSICO 1: MAGNITUDES Y UNIDADES 1 1.- MAGNITUDES FÍSICAS

Story Transcript

Cambios en las nociones de número, unidad, cantidad y magnitud Bernardo Gómez Alfonso. Dpto. De didáctica de la matemática. U. De Valencia. Resumen A lo largo del tiempo se han sucedido cambios en las nociones de número, unidad, cantidad y magnitud que, como formas ya superadas de pensar, estuvieron vigentes en épocas pasadas. Estos cambios son indicativos de rupturas en la forma de conceptualizar esos objetos matemáticos, que como huellas nos informan del desarrollo del saber científico. En esta comunicación se trata de caracterizar los grandes cambios que se han sucedido en la evolución de las nociones de unidad, número, cantidad y magnitud, a partir de un estudio histórico y epistemológico realizado husmeando en artículos de la literatura actual y en las fuentes originales. Puntos de vista principales Se han identificado cuatro puntos de vista principales en la evolución histórica de las nociones de número, unidad, cantidad y magnitud que, como puntos de inflexión, reflejan cambios o rupturas en la conceptualización de las nociones acuñadas previamente. Estos son: 1. El punto de vista griego que se vincula a la definición de número de Euclides, que será el modelo dominante hasta el final del siglo XVI. 2. La ruptura de la concepción griega y el punto de vista que se vincula a la definición de número de Stevin, que será el modelo dominante del siglo XVII. 3. Los desarrollos posteriores de la noción de Stevin que se vinculan a las definiciones de número de Newton y de magnitud de Euler, junto con las conceptualizaciones de los negativos, que serán dominantes en el siglo XVIII. 4. El punto de vista moderno que, iniciado en el siglo XIX, sustenta los desarrollos formales actuales. El punto de vista griego y el desarrollo posterior que se vincula a la definición de número de Euclides El punto de vista griego se puede caracterizar a partir de tres aportaciones principales La noción pitagórica de número Para los pitagóricos los números admitían distribuciones espaciales, según la forma de disponer las unidades, que como puntos podían componerse en línea, en el plano o en el espacio. Al estudiar estas distribuciones, agrupando los números en series, obtuvieron resultados importantes acerca de los números triangulares, cuadrados, rectángulos, pentagonales, hexagonales, piramidales, etc. Esta visión de los números planteaba un parangón o paralelismo entre las cosas y los números. En efecto, considerando que la yuxtaposición de puntos engendra líneas, la yuxtaposición de líneas engendra superficies, la yuxtaposición de superficies engendra cuerpos, se tiene que los puntos son las unidades reales que componen los cuerpos de la naturaleza. En este sentido, los cuerpos como sumas de puntos materiales y los números como sumas de unidades-puntos, se puede entender la afirmación pitagórica de que todos los cuerpos deben ser considerados como números (Romero, 1993, p. 5). La noción Aristotélica de cantidad Para Aristóteles la característica definitoria de la noción de cantidad era la divisibilidad: “cantidad significa aquello que es divisible en dos o más partes alícuotas de las cuales cada una es por su naturaleza un “uno” y un “esto” (Aristóteles. Metafísica, 1020a). Se distinguían dos tipos de cantidad: pluralidad y magnitud. La primera se vinculaba al número y la segunda a la medida. Lo que caracteriza a la pluralidad es su potencialidad de ser divisible en partes no continuas y a la de la magnitud es su potencialidad de ser divisible en parte continuas. Por lo que se refiere a la unidad, su característica definitoria era lo indivisible, y por lo tanto el no tener partes no continuas. La noción Euclídea de número y de unidad La noción Euclídea de número no difiere de la Aristotélica, pero su forma de definirla es la que será recogida por la tradición histórica prácticamente hasta el siglo XVIII: “ Número es una pluralidad compuesta de unidades (Euclídes. Elementos, definición 2 del libro VII) Por su parte, la noción Euclídea de unidad era la singularidad: Unidad es aquello en virtud de lo cual cada una de las cosas que hay es llamada una (Euclídes. Elementos, definición 1 del libro VII) Implicaciones 1. La noción de unidad conducía a afirmar que el uno no es número, porque la singularidad está excluida de la pluralidad. 2. La noción de número es de carácter espacial, implica la contemplación simultánea de objetos diferenciados considerados en su totalidad. El desarrollo posterior de las matemáticas hará especial hincapié en esto, haciendo referencia al carácter temporal de los números, que tiene que ver con la sucesión de fenómenos, y a cómo se forman.

1

3. Los números se forman por agregación de unidades y, por tanto, el uno es el principio de todos los números. 4. También el desarrollo posterior de las matemáticas hará necesario enfrentar la noción Euclídea de unidad y la de fracción entendida como partes de la unidad. Esto llevará a decir que la unidad es de dos maneras: unidad absoluta, esencialmente abstracta, entera e indivisible; y unidad denominada, esencialmente concreta y divisible en cuanto a la materia a la que se refiere. Dicho lo cual se podían conceptualizar las fracciones como expresiones que numeran o cuentan las partes de la unidad concreta diciendo uno, dos, tres, ... , “tercios” de la misma forma en que se dice una, dos, tres, ..., manzanas. Una consecuencia de que la unidad pueda ser abstracta o concreta, es que también los números son considerados abstractos o concretos, según lo sean las unidades que los forman. 5. La distinción entre pluralidad y magnitud determinaba dos clases disjuntas, por lo que sus respectivos estudios se consideraban independientes. Lo primero se relacionaba con el objeto de estudio de la aritmética y lo segundo con el objeto de estudio de la geometría. Estas dos ramas de las matemáticas se conectaban en el caso particular de las magnitudes conmensurables ya que estas podían ser tratadas como razones numéricas. Posteriormente las magnitudes se denominarán cantidades continuas y las pluralidades cantidades discretas, sus diferencias eran: la continua se refiere a la grandeza, la discreta a los números; la continua se refiere a lo que esta junto, la discreta a lo que está apartado; la continua se refiere a la posibilidad de disminuir indefinidamente, la discreta a la de aumentar indefinidamente. La ruptura de la concepción griega y el desarrollo que se vincula a la definición de número de Stevin, que será el modelo dominante del siglo XVII Antecedentes de esta ruptura se encuentran: 1. En la Aritmética de Diofanto de Alejandría (s. III), colección de problemas resueltos en donde se llama número a la incógnita de problemas cuya solución es un entero, una fracción, o un irracional. En algunos de estos problemas se hace mención explícita a la partición de la unidad. 2. En los efectos del cálculo práctico, donde se utilizaban fracciones desde la época Egipcia y Babilónica en situaciones en las que necesariamente había que dejarse llevar por las reglas sin preocuparse por lo lícito de las mismas. 3. En el efecto del mayor recurso a la manipulación algebraica y la mejora de la notación que se produce en el resurgir de la ciencia en Occidente tras el periodo de oscuridad que finaliza con la Edad Media. 4. El recurso a las aproximaciones para representar las razones inconmensurables como razones de enteros. La noción de número de Stevin (1548-1620) Uno de los primeros autores que definitivamente propiciaron la ruptura con la concepción griega del número fue Simón Stevin de Brujas. Éste, desde un enfoque pragmático se sitúa en una posición que le permite extender el campo numérico. Stevin define el número no como un tipo de cantidad sino como un medio para explicarla: “Número es aquello, por lo cual se explica la cantidad de cada una de las cosas” (Stevin, 1585, p. 1). Deja claro que no solo la unidad es número, sino también las otras formas que aparecen como resultado de las operaciones algebraicas: fracciones, radicales y negativos. Una vez ha establecido que la unidad es divisible, no hay razón para detener la división, por tanto un número llega a ser infinitamente divisible, y por consiguiente indiferenciable de una magnitud continua. Esto permite a Stevin negar la existencia de cantidades discretas o discontinuas, y por tanto negar la discretez de los números naturales. Más adelante, Stevin introduce en La Disme una notación decimal y reduce los métodos de cálculo con fracciones a los métodos de cálculo con números naturales, poniendo de manifiesto que los irracionales tienen las mismas propiedades operatorias que los números naturales. Implicaciones En la noción de Stevin esta patente la identificación entre número, cantidad y magnitud. Ahora bien, de la similitud entre magnitud y número no se desprende la analogía entre la unidad y el punto. No es cierto, señala Stevin, que la unidad sea al número lo que el punto es a la recta, ya que la unidad no es el principio generador de los números; la unidad es divisible en partes y el punto no, la unidad es parte del número y el punto no es parte de la línea. Consecuencia inmediata de la notación decimal es que las fracciones decimales proporcionan una forma de aproximación indefinida de los irracionales, de hecho da el algoritmo de aproximación por división, con lo cual está mostrando una imagen intuitiva del continuo numérico, en la que los irracionales deben ser considerados como números con una parte entera (Dhombres, 1978, p. 129). Diferencias respecto a la concepción griega De aquí, de acuerdo con Moreno (1995, p. 21), se sigue que: Queda ampliado el dominio numérico: incluye la unidad, las fracciones, y los radicales, de tal manera que se cierra respecto a las operaciones algebraicas (salvo los complejos).

2

Se borra la dicotomía continuo-discreto de la cantidad, al negar la "discretez" del número como una característica de su esencia. La unidad deja de tener el carácter privilegiado que tenía en la matemática griega como principio generador del número. Los desarrollos posteriores de la noción de Stevin que se vinculan a las definiciones de número de Newton y de magnitud de Euler, junto con las conceptualizaciones de los negativos, que serán dominantes en el siglo XVIII El punto de vista de Stevin va a ser dominante hasta mediados del siglo XIX. Su enfoque va a permitir que durante casi tres siglos se identifique número, cantidad y magnitud. Los irracionales serán aceptados como números, porque intuitivamente pueden ser interpretados en términos de medida de magnitudes, pueden ser representados por aproximación con fracciones decimales y porque sus reglas de cálculo son análogas a las de los otros números. Rastros de los negativos Los números negativos no eran considerados números al no tener sus raíces en las experiencias de contar y medir, es decir, al no tener una referencia material o real. No obstante, hay rastros de los negativos que se remontan al período greco romano. En Diofanto (s. III) hay una especie de regla de los signos que hace alusión al producto de dos diferencias, pero, de acuerdo con la tradición griega, éste autor rechazaba las soluciones negativas de ecuaciones como x + 4 = 0, porque no las consideraba resolubles. También hay rastros de los números negativos en las matemáticas chinas e hindúes, los primeros utilizaban varillas de cálculo negras y rojas para distinguir entre negativo y positivo, y los segundos manejaban números negativos para representar deudas, y el cero para la nada (Brahmagupta, s. VII). En el Renacimiento, el desarrollo del álgebra propicio que se les considerase como raíces falsas de ecuaciones (Cardano, 1501-1576 en Ars Magna, 1545). Se ha dicho (González, J. 1989, p. 28) que quizá el término negativo provenga de esta época, ya que eran los valores negados cuando se obtenían como raíces de una ecuación Más tarde, en el siglo XVII aparecerán las primeras interpretaciones geométricas: lo negativo como un retroceso y lo positivo como un avance (Girard, 1590-1639, cit. González, 1989, p. 33). Con todo al comenzar el siglo XVIII, los negativos seguían sin ser considerados números, aunque extienden su uso como artificios de cálculo, encuentran una interpretación geométrica como abcisas de puntos y se acrecientan los esfuerzos para legitimarlos. Dos concepciones de los negativos En esta época están presentes dos concepciones. Una es de tipo empírico, aquella cuya característica definitoria es ser cantidades menores que cero. Esta surgen de las necesidades del cálculo algebraico al extender la sustracción más allá del caso en que el sustraendo es menor que el minuendo. Es importante señalar que esta noción supone una ruptura con la concepción del cero absoluto: aquello por debajo de lo cual no se puede concebir nada. Decir que las cantidades negativas son menores que cero implica que el cero ya no es menor que todas las cantidades y que ¡hay cantidades menores que nada! Se plantea así una nueva ordenación de las cantidades de tal modo que cualquier cantidad negativa es menor que cualquier cantidad positiva. La otra es de tipo conceptual, aquella cuya característica definitoria es ser cantidades opuestas a las positivas. Esta surge de considerar magnitudes relativas: aquellas que para determinarlas se necesita considerar un nuevo aspecto, el sentido. Este hace que las magnitudes aparezcan divididas en dos clases, como las líneas que van en un sentido o en el directamente opuesto, el tiempo pasado o el futuro, el dinero que se posee o que se debe, el movimiento hacia adelante o hacia atrás. Se entiende que son opuestas porque siendo de la misma especie una disminuye o anula a la otra. En ambas se hace referencia a lo concreto a través de la noción de cantidad, no hay por tanto una idea de número entero desligada de la realidad. La coexistencia de dos ceros Una consecuencia de la coexistencia de las dos nociones de los negativos era la coexistencia dos nociones del cero: el cero absoluto, aquello por debajo del cual no hay nada, y el cero-origen, aquello que se marca arbitrariamente sobre un eje orientado. Se entiende que lo que es absurdo de hacer con el cero absoluto, sustraer una cantidad más grande de materia de una más pequeña, es perfectamente legítimo con el ceroorigen. La definición de número de Newton (1642-1727) El primero en formular una definición de número que incluye explícitamente a los números irracionales fue probablemente Newton. Su idea no es estrictamente original, no es mas que la identificación de la idea de número de Stevin con la de razón entre magnitudes de los griegos. Así, el número, tal y como queda definido en su Arithmetica Universalis (1707), surge de la medida absoluta de las magnitudes, es una relación entre cantidades comparables: “Se entiende por número, no tanto una colección de muchas

3

unidades, como una relación abstracta de una cantidad cualquiera a otra de la misma especie que se considera como unidad (Newton, 1707). De su definición se sigue que se puede denominar número a cualquier razón entre cantidades y, por lo tanto: a las razones enteras que están medidas por la unidad; a las fraccionarias que están medidas por un submultiplo de la unidad, y a las que son inconmensurables con la unidad. (Newton, 1707). Por lo que respecta al cero, lo incluye explícitamente entre los signos de los números enteros. Y, en cuanto a los negativos, se refiere a ellos como deudas y ganancias, movimientos hacia adelante y hacia atrás, y líneas que van en un sentido o en el opuesto. Sin embargo lo que realmente utiliza como característica definitoria es el ser menores que cero: “Se llaman cantidades positivas las que son mas grandes que cero, y negativas, las que son menores que cero” (Newton, 1707, p. 3). Implicaciones En Newton se unifican los procesos de contar y medir, ya que averiguar cuántas veces una cantidad contiene a otra de su misma especie llamada unidad, no es muy diferente de averiguar cuantas veces se repite ésta en una colección de unidades y, a la recíproca, al medir las cantidades estas se dicretizan y se conciben como una colección de unidades. La diferencia entre ambos procesos es que la unidad está determinada en las cantidades discretas y es completamente arbitraria en las cantidades continuas. Los números, como símbolos que designan razones de magnitudes, son susceptibles de combinarse entre ellos por medio de las operaciones de la aritmética. Consecuentemente define una multiplicación completamente genera, ya que abarca a todos los números sean enteros, fraccionarios o irracionales, en términos de proporcionalidad. Con ello, se puede decir que Newton obtiene el cuerpo de los números reales en términos que no serán modificados en nada por sus sucesores hasta Dedekind y Cantor (Bourbaki, 1969, p. 210). El punto de vista de Euler (1707-1783) El punto de vista de Euler con relación a los números no difiere esencialmente del de Newton. Sin embargo, por lo que respecta a los negativos opta por caracterizar el signo más o menos como un adjetivo. Esto es, de la misma manera que un adjetivo modifica el significado de un sustantivo en un determinado sentido, se utilizaban los signos + y - para modificar el significado de los números. Así, el signo + o puesto delante de un número indica positivo o negativo: positivo cuando se trata de un número que hay que sumar y negativo cuando hay que restarlo. Además, deja claro que las cantidades negativas son las que proceden de una resta en que el minuendo es mayor que el sustraendo. Esta caracterización va en contra de que el símbolo -x se pudiera referir también a valores negativos de la variable. En relación con las magnitudes, Euler establece lo que será la definición más conocida de magnitud. Para Euler lo que define una magnitud es su posibilidad de aumentar o disminuir: “Todo lo que es susceptible de aumentar, o disminuir se llama magnitud, o cantidad. Por lo tanto una suma de dinero es cantidad, ya que puedo aumentarla o disminuirla” (Euler, 1797, p. 1 a 3). Implicaciones Pronto, la definición de Euler de magnitud se consideró defectuosa al abarcar cosas que no deberían llevar el nombre de cantidades, por ejemplo, los placeres, los dolores, los conceptos morales de bueno y de malo, etc. Como consecuencia en el siglo XIX vuelve a distinguirse entre magnitud y cantidad. Una manera de distinguir es aceptar que magnitud es todo lo que es susceptible de aumentar o disminuir, y que la cantidad es la magnitud restringida al caso en que es medible. Otra manera es considerar que una cantidad cuando aumenta o disminuye pasa a ser otra cantidad, de donde una magnitud debe ser el conjunto de todas las cantidades que se obtienen cuando se aumenta o disminuye. De aquí, que se dirá que las cantidades son los estados de cada magnitud. Por otra parte, entendemos que una magnitud aumenta cuando se le añade otra cantidad, por lo que la idea de aumentar o disminuir presupone la posibilidad de sumar cantidades, y de tener un criterio de igualdad. Por lo tanto, las magnitudes medibles han de cumplir dos condiciones fundamentales, ser comparables y ser sumables. De aquí que en algunos textos se defina magnitud como “un conjunto en el que se definen una igualdad, una suma y una ordenación (Santillana, 7º, 1983, p. 90) El punto de vista actual Hoy, se consideran dos tipos de magnitudes: escalares o vectoriales, según que para medirlas se necesiten una o dos o más unidades. Las escalares cumplen que las cantidades de cada una pueden ordenarse de menor a mayor; es decir se pueden ordenar en escala creciente; y también se llaman lineales, porque se pueden representar por los puntos de una recta, ya que guardan la misma ordenación que éstos. Las magnitudes no ordenables en serie rectilínea, es decir, no representables por los puntos de una recta, pero sí por los puntos de un plano o del espacio, se llaman magnitudes complejas porque para medirlas se necesitan dos o más unidades (Rey Pastor, 1930, p. 4 y 5). Actualmente la separación entre cantidad y número es completa, de tal modo que la noción de magnitud se conceptualiza sin hacer referencia al número, sino como una terna: (M, +,

Get in touch

Social

© Copyright 2013 - 2024 MYDOKUMENT.COM - All rights reserved.