 
 
 
 
 
   
 Next: 2.1 Definiciones
 Up: No Title
 Previous: 1. Introducción
  
2. Errores
El concepto de error es consustancial con el cálculo numérico. En
todos los problemas es fundamental hacer un seguimiento de los errores
cometidos a fin de poder estimar el grado de aproximación de la
solución que se obtiene.
Los errores asociados a todo cálculo numérico tienen su origen en dos
grandes factores:
- Aquellos que son inherentes a la formulación del problema.
- Los que son consecuencia del método empleado para encontrar la
  solución del problema.
Dentro del grupo de los primeros, se incluyen aquellos en los que la
definición matemática del problema es sólo una aproximación a la
situación física real. Estos errores son normalmente despreciables;
por ejemplo, el que se comete al obviar los efectos relativistas en la
solución de un problema de mecánica clásica. En aquellos casos en que
estos errores no son realmente despreciables, nuestra solución será
poco precisa independientemente de la precisión empleada para
encontrar las soluciones numéricas.
Otra fuente de este tipo de errores tiene su origen en la imprecisión
de los datos físicos: constantes físicas y datos empíricos. En el caso
de errores en la medida de los datos empíricos y teniendo en cuenta su
carácter generalmente aleatorio, su tratamiento analítico es
especialmente complejo pero imprescindible para contrastar el
resultado obtenido computacional-mente.
En lo que se refiere al segundo tipo de error (error computacional),
tres son sus fuentes principales:
- 1.
- Equivocaciones en la realización de las operaciones (errores
de bulto). Esta fuente de error es bien conocida por cualquiera
  que haya realizado cálculos manualmente o empleando una
  calculadora. El empleo de computadores ha reducido enormemente la
  probabilidad de que este tipo de errores se produzcan. Sin
  embargo, no es despreciable la probabilidad de que el programador
  cometa uno de estos errores (calculando correctamente el resultado
  erróneo). Más aún, la presencia de bugs no detectados en
  el compilador o en el software del sistema no es inusual. Cuando
  no resulta posible verificar que la solución calculada es
  razonablemente correcta, la probabilidad de que se haya cometido
  un error de bulto no puede ser ignorada. Sin embargo, no es esta
  la fuente de error que más nos va a preocupar.
  
- 2.
- El error causado por resolver el problema no como se ha
  formulado, sino mediante algún tipo de aproximación. Generalmente
  está causado por la sustitución de un infinito (sumatorio
  o integración) o un infinitesimal (diferenciación) por
  una aproximación finita. Algunos ejemplos son:
  
- El cálculo de una función elemental (por ejemplo, Seno x)
    empleando sólo n términos de los infinitos que constituyen la
    expansión en serie de Taylor.
- Aproximación de la integral de una función por una suma finita
    de los valores de la función, como la empleada en la regla del
    trapezoide.
- Resolución de una ecuación diferencial reemplazando las
    derivadas por una aproximación (diferencias finitas).
- Solución de la ecuación f(x) = 0 por el método de
    Newton-Raphson: proceso iterativo que, en general, converge sólo
    cuando el número de iteraciones tiende a infinito.
  
 Denominaremos a este error, en todas sus formas, como error
    por truncamiento, ya que resulta de truncar un proceso infinito
  para obtener un proceso finito. Obviamente, estamos interesados en
  estimar, o al menos acotar, este error en cualquier procedimiento
  numérico.
 
- 3.
- Por último, la otra fuente de error de importancia es aquella
  que tiene su origen en el hecho de que los cálculos aritméticos no
  pueden realizarse con precisión ilimitada. Muchos números requieren
  infinitos decimales para ser representados correctamente, sin
  embargo, para operar con ellos es necesario redondearlos. Incluso en
  el caso en que un número pueda representarse exactamente, algunas
  operaciones aritméticas pueden dar lugar a la aparición de errores
  (las divisiones pueden producir números que deben ser redondeados y
  las multiplicaciones dar lugar a más dígitos de los que se pueden
  almacenar). El error que se introduce al redondear un número se
  denomina error de redondeo.
 
 
 
 
 
 
   
 Next: 2.1 Definiciones
 Up: No Title
 Previous: 1. Introducción
Wladimiro Diaz Villanueva
1998-05-11