Next: 2.1 Definiciones
Up: No Title
Previous: 1. Introducción
2. Errores
El concepto de error es consustancial con el cálculo numérico. En
todos los problemas es fundamental hacer un seguimiento de los errores
cometidos a fin de poder estimar el grado de aproximación de la
solución que se obtiene.
Los errores asociados a todo cálculo numérico tienen su origen en dos
grandes factores:
- Aquellos que son inherentes a la formulación del problema.
- Los que son consecuencia del método empleado para encontrar la
solución del problema.
Dentro del grupo de los primeros, se incluyen aquellos en los que la
definición matemática del problema es sólo una aproximación a la
situación física real. Estos errores son normalmente despreciables;
por ejemplo, el que se comete al obviar los efectos relativistas en la
solución de un problema de mecánica clásica. En aquellos casos en que
estos errores no son realmente despreciables, nuestra solución será
poco precisa independientemente de la precisión empleada para
encontrar las soluciones numéricas.
Otra fuente de este tipo de errores tiene su origen en la imprecisión
de los datos físicos: constantes físicas y datos empíricos. En el caso
de errores en la medida de los datos empíricos y teniendo en cuenta su
carácter generalmente aleatorio, su tratamiento analítico es
especialmente complejo pero imprescindible para contrastar el
resultado obtenido computacional-mente.
En lo que se refiere al segundo tipo de error (error computacional),
tres son sus fuentes principales:
- 1.
- Equivocaciones en la realización de las operaciones (errores
de bulto). Esta fuente de error es bien conocida por cualquiera
que haya realizado cálculos manualmente o empleando una
calculadora. El empleo de computadores ha reducido enormemente la
probabilidad de que este tipo de errores se produzcan. Sin
embargo, no es despreciable la probabilidad de que el programador
cometa uno de estos errores (calculando correctamente el resultado
erróneo). Más aún, la presencia de bugs no detectados en
el compilador o en el software del sistema no es inusual. Cuando
no resulta posible verificar que la solución calculada es
razonablemente correcta, la probabilidad de que se haya cometido
un error de bulto no puede ser ignorada. Sin embargo, no es esta
la fuente de error que más nos va a preocupar.
- 2.
- El error causado por resolver el problema no como se ha
formulado, sino mediante algún tipo de aproximación. Generalmente
está causado por la sustitución de un infinito (sumatorio
o integración) o un infinitesimal (diferenciación) por
una aproximación finita. Algunos ejemplos son:
- El cálculo de una función elemental (por ejemplo, Seno x)
empleando sólo n términos de los infinitos que constituyen la
expansión en serie de Taylor.
- Aproximación de la integral de una función por una suma finita
de los valores de la función, como la empleada en la regla del
trapezoide.
- Resolución de una ecuación diferencial reemplazando las
derivadas por una aproximación (diferencias finitas).
- Solución de la ecuación f(x) = 0 por el método de
Newton-Raphson: proceso iterativo que, en general, converge sólo
cuando el número de iteraciones tiende a infinito.
Denominaremos a este error, en todas sus formas, como error
por truncamiento, ya que resulta de truncar un proceso infinito
para obtener un proceso finito. Obviamente, estamos interesados en
estimar, o al menos acotar, este error en cualquier procedimiento
numérico.
- 3.
- Por último, la otra fuente de error de importancia es aquella
que tiene su origen en el hecho de que los cálculos aritméticos no
pueden realizarse con precisión ilimitada. Muchos números requieren
infinitos decimales para ser representados correctamente, sin
embargo, para operar con ellos es necesario redondearlos. Incluso en
el caso en que un número pueda representarse exactamente, algunas
operaciones aritméticas pueden dar lugar a la aparición de errores
(las divisiones pueden producir números que deben ser redondeados y
las multiplicaciones dar lugar a más dígitos de los que se pueden
almacenar). El error que se introduce al redondear un número se
denomina error de redondeo.
Next: 2.1 Definiciones
Up: No Title
Previous: 1. Introducción
Wladimiro Diaz Villanueva
1998-05-11