Con la invención de la escritura, se tubo que dar el paso siguiente, que fue el de escribir los números. Los primeros números escritos, eran simplemente signos iguales que se limitaban a contar hasta llegar al numero deseado.

Por ejemplo uno era ´, dos ´´, cinco ´´´´´, ocho ´´´´´´´´, y así sucesivamente hasta llegar al numero deseado. Como se hace difícil leer muchos signos de este estilo, por ejemplo 27 seria muy molesto tener que leer ´´´´´´´´´´´´´´´´´´´´´´´´´´´, así que se los empezó a separar en grupos, preferentemente de a diez (es el que se utilizo mas en la antigüedad).

Luego se invento un símbolo para lo diez grupos de diez, os sea cien, y así sucesivamente. Este sistema lo utilizaban los babilonios, pero con un sistema cuneiforme, que eran formas de cuya marcadas en arcilla.

En las primeras etapas de su desarrollo, los griegos usaron un sistema semejante al de los babilonios, pero en épocas posteriores se generalizó un método alternativo. Recurrieron al empleo de otro sistema ordenado: el de las letras del alfabeto.

Los griegos serian los que inventarían los números irracionales, mas precisamente Pitagoras.

El cero lo inventaron los hindúes por el año 500, los hindúes denominaron a este símbolo sunya, que quiere decir “vacío”. Este fue un gran avance porque ya no se confundirían los números como el 507 con el 57, esta era la forma utilizada anteriormente, dejando un espacio. Este símbolo de la nada fue recogido por los árabes hacia el s. VIII, quienes lo denominaron céfer, que en su idioma quería decir “vacío”. Esta palabra dio origen a las palabras castellanas cero y cifra.

Con mucha lentitud llegaron los números arábigos a occidente y reemplazaron a los números romanos, que estos habían esparcido por todo su imperio.

Fue un matemático italiano, Leonardo Fibonacci (1170-1240), el primero en escribir sobre los números arábigos en occidente. Tuvo la ocasión de viajar ampliamente por el norte de Africa. Allí aprendió la numeración árabe y la notación posicional (el cero). Fibonacci escribió un libro sobre el tema en 1202, Liber Abaci (o libro del ábaco), que sirvió para introducir los números arábigos en Europa, pero los romanos aún se mantuvieron en vigor durante tres siglos más.

El matemático italiano Geronimo Cardano (1501-1575), fue el que demostró, en 1545, que las deudas y los fenómenos similares se podían tratar con números negativos. Hasta ese momento, los matemáticos habían creído que todos los números tenían que ser mayores que cero.

En la antigüedad no se contaba mas de varios miles, si así era se limitaban a exagerar diciendo cientos de miles o mas que las estrellas. El numero millón y la palabra, (que viene del latín que significa “gran millar”), que son mil millares, data de la alta Edad Media, época en que que el comercio había revivido, hasta alcanzar un punto de necesitar una palabra especial. Los billones y los trillones vinieron mas tarde.

En 1614 John Napie, llamado Neper o Neperius, invento los logaritmos, del griego logos, razón, y arithmos, número. Un logaritmo es un numero que indica la potencia a la que hay que elevar otro dado para que resulte un tercero tambien conocido. El matemático ingles John Wallis (1616-1703) fue el que consiguió dar sentido a los números imaginarios (numero que se inventa y se le asigna un símbolo com i)en 1685, así como los números complejos. En 1744 el matemático suizo Leonhard Euler (1707-1783) descubrió los números trascendentales, que son los que jamás constituirán una solución a cualquier ecuación algebraica que pueda escribirse. En 1845 el matemático irlandés William Rowan Hamilton (1815-1865) comenzó a trabajar con números hipercomplejos, o como el los llamo cuaternios.





No tags for this post.