Los criterios de ajuste y la optimización matemática - Instituto

Este trabajo tiene como objetivo el contemplar los métodos de ajuste desde el punto de vista de la optimización matemática, y en particular desde la ó...

29 downloads 251 Views 3MB Size
ESTADÍSTICA ESPAÑOLA Núm. 109, 1985, págs. 43 a 81

Los criterios de ajuste y la optimización matemática por ANTONIO ALEGRE ESCOLANO (*1 Facultad de Ciencias Econárnicas y Empresariales Universidad de Barcelona

RESUMEN En el presente trabajo se tratan los "criterios de ajuste" desde el punto de vista de la optimización matemática y en particular desde la óptica de la "búsqueda de extremos" mediante los correspondientes algoritmos de cálculo numérico. Se analiza el criterio "mínimo-cuadrático" y se rechaza la aplicación de transformaciones logarítmicas para linealizar en sus parámetros la función a ajustar.

Se generaliza el criterio de ajuste "mínimo-cuadrático", mediante el criterio de " mínirna media potencial de orden a" y el criterio límite del "mini-max", también se trata el criterio de "mín^mo-rango". Palahras c•lave:

Criterio de ajuste, búsqueda de extremos, mínimocuadrático, mínima media potencial de orden a, mini-max, mínimorango.

(*)

Profesor Titular del Departamento de Seguro y Matemáticas de la Facultad ds Ciencias

Económicas y Empresariales de la Universidad de Barcelona. Catedrático en excedencia de Estadística Empresarial de Escuelas Universitarias de Empresariales.

E.STAC)ÍSTI(`A E:SPA^i()LA

l.

INTR^ODUCCION

Este trabajo tiene como objetivo el contemplar los métodos de ajuste desde el punto de vista de la optimización matemática, y en particular desde la óptica de los métodos de "búsqueda de extremos" rnediante los adecuados algoritmos de cálculo numérico. Este planteamiento como se mostrará a lo largo de todo el trabajo, proporciona la posibi lidad de me^orar sustancialmente las técnicas de ajuste uti lizadas corrientemente y permite incluso analizar procedimientos tradicionalmente utilizados sin el debido fundamento y que resultarán rechazables por no alcanzar el objetivo buscado. El trabajo está dividido en cuatro partes, la primera, epígrafe 2, centra con toda generalidad el problema del ajuste. L.a segunda, epígrafes 3, d y b, trata la resolución del problema de ajuste bajo el criterio mínimo cuadrático con independencia del tipo de función a ajustar, en él se ha obtenido como resultado fundamental, el rechazo total de los métodos de linealización respecto a sus parámetros de la función a ajustar, mediante la utilización de la usual transformación logarítmica, (*) demostrándose que la función ajustada mediante dicha transformación, no es la óptima bajo el criterio mínimo-cuadrático, ya que la transformación no conserva el óptimo. La tercera parte, epígrafe S, situada dentro de la segunda, plantea los métodos de "búsqueda de óptimos" y los algoritmos de cálculo numérico, apropiados para resolver con toda generalidad el problema del ajuste. En ella se desarrolla un algoritmo numérico para minimizar funciones de una sola variable y que está basado en la sucesión de números de Fibonacci y así mismo se exponen algunos algoritmos de minimización de funciones de variable multidimensional, que permiten resolver el problema de ajuste de funciones dependientes de un vector de parámetros s-dimensional. La cuarta parte, epígrafe 7, se dedica a dar una reinterpretación deI criterio de ajuste mínimo-cuadrático que permite una generalización mediante el criterio de ajuste de la "mínima media potenciai de orden a", obteniendo como caso limite el criterio de ajuste "mini-max" que consiste en minimizar el máximo de los valores absolutos de los errores, se analizan otras posibilidades de criterios de ajuste y en particular el basado en el "mínimo-rango" de los errores. La totalidad de los cálculos numéricos, se han efectuado mediante programas preparados por el autor en FORTRAN - 77 y que han sido implementados en el procesador IBM 3083/XE01 del Centre d'Informática de la Universitat de Barcelona. (*}

Para una exposición clara del problema de la linealidad, puede verse Barbancho, Alfonso, G.

Fundamentos y Posibilidades de la Econometría. ep. 5.2.

l_OS ( R11'E:RIOS DF. AJl.1STE Y LA OPTIMIIAC'I(^N MATEM.ÁTIC'.A

2.

4S

PLANTEAMIENTO DEL PROBLEMA DE AJUSTE

E1 problema de ajuste, puede plantearse, con toda generalidad en los términos siguientes:

a) Se conocen "n" valores de la variable Y, relacionada con los valores que toman r ^ variables X,.... X„ que simbolizaremos como una variable r-dimensional X, con la que la información conjunta sobre estas r+l variables vendrá dada por los pares ordenados, l 4^r ^ x;) Ii e{1.2....n}

COl'l

..^C; ^ (X^ i, X2 ;....Xr i)

b) Disponemos de una familia de funciones de la variable r-dimensional x, dependientes de un vector s-dimensional de parámetros á, con á - (a^, a2....u.s) familia que viene dada por Y^ _ ^ (X ; ^)

c) E1 problema de ajuste, consiste en determinar los valores ^ que deben asignarse al vector de parámetros á para que los valores y^ que correspondan por la función g(X ^ a los vectores de observaciones z sean "lo más parecidos posibles" a los valores y; de la variable Y. d) Por último, será necesario especificar el criterio por el que se elegirán unos valores para el vector de parámetros ú y no otros distintos, estos criterios dependen de los errores que comete la función ^g (z ; á^, ... e;=Y;-y^-y; - ^(X; ; a

Si simbolizamos por é^° {e^, e,... e„} el vector n-dimensional de los errores, los criterios de ajuste tratan de sustituir este vector por un número real positivo,

Siendo ^c, una aplicación de Rn en R ♦ esto es ^. R+ ,u : R" --.• -^. e ---^ ,u (e) > 0

ESTAC)ÍSTiC A ESPAÑnLA

resulta entonces que, como -... -^. - ^ -... -.^. e=Y-Y^=Y-R(x; ; a

tendremos,

,^ ( ^ _ ,^ ^v ^(x ; ^ ] _ ^^ t^ con lo que el criterio de ajuste, nos proporciona una función real o de vaciable s-dimensional, euyas variables independientes son los parámetros de la familia a ajustar. ^ i.Jna vez definida la función e(a), el problema de ajuste se ha reducido al de obtener

el vector aó para el que la función e alcanza un mínimo absoluto. En ocasiones puede ser necesario imponer condiciones al comportamiento del vector de errores, la más utilizada es que, la suma de los errores sea cero, con lo que,

n

n

n

,^ i-!

^

-±^

^ CYi-Yi^= ^ [Y,-!^(xi;a1^=0 i-1 i=1

ei=

y surge la condición,

^i ^=1

Yi = ,^,r i^i

g l^i ; uJ

entonces la determinación del vector aó deberá hacerse de forma que se minimice la ., -. funcion 0(a) pero condicionada a dicha relación.

3.

CRITERIO DE AJUSTE POR MINIMOS-CUADRADOS

EI criterio de ajuste mínimo-cuadrático consiste en tomar como número real asociado al vector de errores é el obtenido sumando los cuadrados de dichos errores,

...^,

n

l^(e)= ,„r

^^1

n e^= .^.r [Yi-^t^; áÍ]l=0(QÍ

i^!

LOS t'RI"fERiOS DE A]USTE Y LA OPTIMI7_At"IñN MATEMÁTIC^A

4?

Una vez definida la función a(á^, el ajuste rnínimo cuadrático quedará concluido, ^ cuando obtengarnos el vector á que minimice a la función e(a). La condición necesaria de mínimo vendrá dada por la anulación del vector gradiente,

v t ^ _^ ^

L,as derivadas parciales de e(a) serán,

-., a^( ) _ ^ a^(X`;^ l ^ 2. [y; - x {x; , á^ ] . [a a;

:= f

a a;

Con lo que la condición necesaria de mínimo vendrá dada por el sistema de ecuaciones

"

a^(X;;a

^ Y^•

;-1

a a;

n

_

--.-^.

^ ^(x;;a).

;_^

-a^(X^;a

a a;

con j^i 1,2...s}

(1)

que se denominan "ecuaciones normales" del ajuste mínimo-cuadrático para la familia de funciones -^ -^• Y^ = S (X : a)•

Veamos ahora algunos casos particulares para los que este sisterna de ecuaciones, toma una forma muy simplificada;

^ . 1.

CASO EN EL. QUE LA FUNCIÓN DE AJUSTE ES LINEAL RESPECTO AL VECTOR DE PARÁMETROS.

Consideremos el caso en que la función g(z^;j es de la forma, -^ -^^

'

-^

g(x;a)=k+ ^ a;.h^(x) j=/

siendo k un número real determinado, entonces tenernos que las derivadas parciales de -. .... g(x ; a) vendrán dadas por,

a^{X`'a) =h^() ^ a a;

Para jE{ 1, 2...s}

ES^TAD^S'TI('A ESPAPVOL_A

y^ sustituyendo en las ecuaciones normales obtenemos

n

,^

^,^

n

y; . h; (x;} _

s

,..^,.

..^

^ [k + ^ ak . hk (x;} ] . h^ (x;)

i= 1

1 ^s 1

^C a

luego

n

^,^.

s

n

^ (Y^ - k} • h; (X;) _ ^ ak • ^ hk ( ) • h; ( ) con j E { 1,2.,.s } e=1

k=1

^=1

sistema de ecuaciones lineal en los parámetros ak con k E{ 1, 2...s }.

3.1. i,

Caso particular en que s = r+ l, h! (x) = 1, -,. h;(x)=^r-1 para jE{2,3..., r+ 1=s}.

En este caso, tenemos una familia de hiperplanos dada por,

k(-x:u}=al+

^ a^•Xr-1=ar+ ^ ak+l •xk j= 2 k=1

y las ecuaciones vendrán dadas por

r yr = 1'2 . a 1♦

n

^ ak .,r -xk, r

i=1

n

^

n y,..X^;=a1.

i= 1

3.2.

^ r=

r

Xil+

n

^ ak •^ xk^x^; con j={ 1,2...r} k= 1

i^. /

CASO EN EL QUE EL VECTOR DE PARAMETROS a Y LA VAR[ABLE 1NDEPENDIENTE X SON UNIDIMENSIONALES.

En este caso particular, la familia de funciones vendrá dada por, Y^-^(-x:a y el sistema de ecuaciones normales ( t) quedará reducido a una sola ecuación,

(^)

LOS í'RITERIOS DE AJUSTE Y L.A OPTIMIIA('IÓN MATFMÁTIC'A

49

(3)

que es la condición necesaria que debe satisfacer el parámetro a, para que la función

_.^,

n

n

^ e;- ^ L^;-8(x; ^a)]`-e(a) ;_ r ^- ^

^(e)-

pasea en "a" un mínimo absoluto.

3.2. l.

Caso en el que ^(x ; a) es lineal.

En este caso, tendremos que y*=k+a. h(x) siendo k un valor real dado, y la correspondiente ecuación normal (3) según lo obtenido en el sistema (2), será

n

rt

^ ^v, - k) . h (.x;) - a .

^ h (x;)`

i=1

i=!

^

con lo que el valor del parámetro "a" que cumple la condición necesaria de mínimo para la función o(a) es n

^ (y;-^).h(x;) a=

i=1 n

^

^ h (x; )` ^-^ 3.2.2.

Caso en el que h(x) = x y k= 0

La familia de funciones corresponde en este caso al conjunto de rectas que pasan por el origen, y * -. a . x

EST A DÍST ICA E SPA Ñ0L_A

So

con lo que el valor del parámeiro "a" deberá ser, n

^ 3'; • x, i=1

(^)

a=

3.2.3.

Caso de ajuste exponencial.

Como caso específco y que utilizaremos posteriormente, consideremos aquel en que la funcián a aj ustar es de la forma,

g(X:A)=AX entonces tenemos que . ^(XIsA^=x^.Ax ^`f

dA

^

y sustituyendo en la ecuación normal dada por (3), queda,

^ y; . x; . Ax^ ' -

^ Ax^ . xi . Ax! '

i^1

i=1

y multiplicando por A obtenemos la siguiente ecuación,

x; _ " " ^ y;.x;. A - ^ x;. i=1

A2 . x;

i=J

que nos dá la condición necesaria de mínimo para la función,

0 {A^ _ ,,,,^, i:!

Ú^i - 1^1^

xi)Z

(5)

51

LC)S CRITERIUS DE AJUSTE Y' LA UPTIMIZAC'I(^^ti MATEMÁ^TIC'A

3. ^ .

C4NDlC16N SUFIC'IENTE DE MÍNIM© PAFtA EL AJUSTE MfNIMO C'UADRI^TlC'O.

Hemos visto en el epígrafe 3. que la condición necesaria de mínimo, viene dada por

a e (a) a a;

n

ag^x''a) =0

_ -2 . ^ Lv^ - g (X ; )^ ^_^

con

E{1,2...s}

a a;

Si derivamos ahora respecto a j' e{ 1,2...s }, tendremos la derivada segunda,

aZ 0 (a)

^, ^

- -2

aa;aa;.

-

^-^ L

-... -^ ag(x;^a)

-. -^.

" -2 ^

a^ g (x ;') •

a a; a a; ^

ag(x;; ) .ag(-^ ; )

'=f

+

aa;.

aa;

+ [y.r _ g (x.r^• a) J

.

-^. -^.. ag(.^ ;a)

aa^

=

_

aa;, -^• -^.

-

Cv,

-

X'• á g(,, )]. a^g(x^ ' a)

.

aa;aa;. derivadas que pueden agruparse en la matriz hessiana de la función war (a), escribiendo

la condición suficiente de mínimo será que la matriz H,o (á^ sea definida positiva en á -^ a^, siendo á el vector que satisface las condiciones necesarias dadas por el sistema (1). Si g^z;á) es lineal respecto a los parámetros, las derivadas podrán escribirse como, a2 e (á)

, -2.

aa;aa;.

.

h; (x j . h; . (x )

F:tiT.4f^ÍSTI('A ESf :41+Ol ,4 _ __. _

con lo que la rnatriz hessiana es constante respeeto al vector á e igual a,

-^^ He^(a)=2

^ ^ ^3^

--.• -^.. h; (-^, ) . h, ^ ( x, )

j,j'E{ 1,2....s}

y en particular, para el ajuste de un hiperplano será,

n

^^ n ^ . . . ^ ^.^ ,t. ,_/ ^ --^-----------

^-^ He(a)--2.

que es definida positiva con la condición de que n> s y los vectores [h; (z,)....h; (zñ) ] con j€{ 1,2,...s } sean linealmente independientes, para que de esta forma el rango de -^.. la matriz He (a) sea "s". Si se curnple esta condición, la función

a) e(

es convexa en R` al ser defnida

positiva. Su matriz hessiana H,^ (á , es independiente del valor de á^ R', con lo que el vector ú que satisfaga la condición necesaria de mínimo dada por (2), en este caso lineal, es aqu^l en el que podemos asegurar que se alcanza ei mínimo absoluto de la función

e (a). 3.3.1.

C'asos partic^ular^s unidimensionales.

En particular si á y,x son unidimensionales, la candición suficiente será, d g (x;;a) ^ " r,^' ra (a) ^ = 2 . ^ [ ]` da r=1 da d`' g (x,;a) d a^

> 0

, - x (-^,;a)]

53

LOS ('RITERIOS [)E: .^lJl'STE l^" L.A C)PTIMI/At^1Cl`` M-1TF ti11TIC'A

Si es lineal, o sea K (.^ ; u) = k+ a.h (.Y} la condición será,

d-' e (a}

^ ^ h (_^r,)`' > 0 ^_^

= 2.

d a^

que siempre será positivo, independientemente de la función h(.Y), en particular para el haz de rectas que pasan por el origen, g(x; a)=a.x

tendremos que,

d^ e(a )- 2. n .^' 0 ^

{.^

Q ,

r

^ ^ ^

^

^

por último consideraremos como anteriormente el caso exponencial en el que, K (-^ : A ) - A ^. para el que ya sabemos que,

^^(-^^A)

_ _Y . A ^-^

dA y derivando de nuevo, tenemos,

c^`' x (.Y ; A)

^ =.t . (_^ - 1) . A `--

cl 1^'

entonces, IT

^^e`(^)-2. ^1 A'

^ ,_ ^

.v!' A-'..^,-^ _ (.^`,-A `^`) _^;•(-^; 1)•A `^' ^y

^ ^

=

n ^ ^= I

.Y, . (2..Y,--1). A`''' ' -- i^;. l ^ . (.Y,--1). A^'' `'

-

54

E^TAD^STIC .A FaN,Atii1[.A

__.

_

^

y dividiendo por A' obtenemos,

d`'e(A) d A`

2 A`

n ^ x, ^^^

`, (2 .x,--1) A' . _ v;

(x-1). A `r

> 0

(6)

. que será la candición suficiente para que en A„ que satisface la condición necesaria de mínimo ( 5) realmente exista un mínimo para la función a(A).

4.

EL AJUSTE MINIMO C'UADRATICC) Y LAS TRANSFORMAClO ^ NES LOGARITMICAS.

En este epígrafe vamos a tratar el hecho frecuente de linealizar en sus parámetros la función de ajuste, mediante la utilización de transformaciones togarítmicas. Dada la función de ajuste, y * -- ,^ (i^ á i Si ésta no es lineal respecto al vector de parámetros á pero io es su transformada logarítmica, n l,* _ In ^{_iú^ = G(-^';á ) llamando ti^'* =1n y* y siendo x el vector de variables independientes original _x; o aquel en qu^e se ha sustituido alguna de ellas X;, por su transformada logarítmica ln X; y á' el vector de parámetros originales áo el resultante de sustituir alguna a; por In a;.

Mediante este praceso de linealización tenemos que la función a ajustar, ahora ya en ias variables transformadas queda expresada por, y'* - G(x'; á') = k+ ^ i= /

a'; . h;(^

,

que se adapta al casa analizado en ei subepígrafe 3.1., sustituyendo la variable Y por Y' _!n Y y las componentes del vector de variabies independientes X por las companentes de X', en el que la k-ésima componente X^ con kE { 1,^...r }, es la variable original Xk o su transformada logarítmica !n X,^. Tradicionalmente, se viene sustituyendo el problema de ajuste de la función x(^,^ ), que irnplica la minimización de la función e(c^` ) , siendo la condición necesaria la dada mediante el sistema na lineal ( i), por el ajuste de la función linealizada,

LOS C'RITERIC)S DE AJl 5TF 1r' í.A OPT IMI/,1( IOti ti1^3 f E M^^ T l( •1

, y'^= ^í ♦

^

55

..,^r. af'• h; (_X7

j- I

obteniéndose la minimización de la función de los cuadrados de los errores de la variable transform^da Y'. n -^^ ^ e^= ^ (y,'-y'*)2=+ai(a^ ;_ ^ ;_ ^ ..^. -^.• por tanto, la minimización de la función 0, (a ^ respecto al vector de parámetros a', se -♦. efectuará tomando un vector a;, que satisfaga el sistema lineal de ecuaciones normales (2) con las variables y parámetros transformados, quedando:

c

n

^ (y;'-k) . h (z;' ) _ ^ l^!

k=1

n

a^ .

^ h^ (.x ). h; ( x) con jE { 1,2....s }

(7)

i=!

Una vez obtenido el vector a^'p se efectúa la transformación inversa de sus componentes y se da como resultado de la minimización de la función ^( u^ ) el transformado a^ ^ de a^'o esto es, las componentes de a^ ^ serán las de a^'^ en el caso en que no se hayan visto afectadas por la transformación logarítmica o e°^l^^

si

a'; = ln a;.

En particular consideraremos el caso tratado en el subepígrafe 3.2.3. de ajuste exponencial. 4. l.

LA TRANSFORMACIÓN SEMILOGARÍTMICA EN EL AJUSTE EXPONENCIAL.

Dada la función exponencial y* = A', si y; > D V i E{ 1, 2.... n}, podemos efectuar una transformación logarítmica en ^^^ tal que In y^ _ (!n A) , x que es una función lineal en las variables y'* _!n y* y x. Si aplicamos la expresión dada en (4), tenemos n ^

In A = '^^ n

L';'. X;

1 n y;

ESl ^DÍSTI(',^^ ESP4ti()LA

y se obtendrá "A" sin más que escribir. n n

/n

A=

r

r= 1

P e

^^

X; Y^

^

1 /^ x^ k^/

Este valor de A cumple la condición necesaria para minimizar la suma de los cuadrados de errores de la funcicín transformada, n ^ f^, ^

n

n

-- ^ (!n y, - y'*)-' _ ^ [ln y,-(!n A).x,J` _

^^/

i-/

i=f

= 0f (A) pero en general, vamos a probar que dicho valor A^, no satisface la condición necesaria de mínimo para la función original

e(A.) = ^

e; _ ^ (Y, - A`^)^ r^!

i=1

esta condicíón según (5), viene dada por ta ecuación, n ^

,

i,._x,.A

n _ t^ - ^

r-f

y sustituyendo el valor d obtenemos, n

_^,.A ^^-t^

i= /

A obtenido mediante la transformación semi-logarítmica n ^

n Yf

^ l'Í.X^. [^ y^ ^ !-f J=f

.^1^

^^f

n

,^ ^

.X.

^ r^ ,,Yr. ^^ Y.i .r^^ 1` f /_ f

1

Z..Yr^F, x^ ^ f

Este resultado es de una gran importancia, ya que la transformación logarítmica en la función de ajuste, no conserva el mínimo en las funciones +^(A) y e f(A), que nos dan respectivamente la suma de cuadrados de los errores respecto a las variables, Y inicial e Y'=1n Y transformada. Esto nos dice que el valor A^„ obtenido de forma que minimiza la función ,af (A), no minirniza como se pretende, la funeión objetivo original e ^(A) por lo que la función y* _ A;, no minimiza la suma de los cuadrados de los errores

e; -- y; -- A_Y; con iE { 1,2 ,,... n} .

57

LOS C'RITERI(^S C)E AJl'STE 1' l_A OPTIMIIAC`iOti !^1•^TEM:^^TI(^,1

4.1.1.

^jem^lo de ajuste e.xponencia^l rnediante trans/vrmación semih^arítmic•a.

Como ejemplo, de lo expuesto en el anterior subepígrafe, sobre la transformación semilogarítmica para obtener el ajuste exponencial, consideraremos el problema de obtener el tanto efe^ctivo de interés compuesto que mejor describe un conjunto de operaciones financieras de actualización, (*) cuyos factores vienen expresados en la tabla siguiente por y;, siendo x; el número de años, duración de la operación de actualización de una unidad monetaria, cuyo valor en 0 viene dado por ti^;,

TABLA I Número de observaciones: 10

VALORES DE

X

VALORES DE

1.00 2.00 3.00 4.00 5.00 6.00 7.00 8.00 9.00 10.00

0. 89 0.80 0.? 1 0.64 0.57 0. 51 0.45 0.41 0.35 0.32

55.00

5.65

Y-

(*) Recuérdese que en un régimen de interés compuesto, el factor de actualización v" _( l+i)-'^ dá la relación entre el valor actual y el final, o sea C„=C,,.v

n

y si C„ = 1, tenemos C^-V

n

siendo c^, el valor actual de una unidad monetaria disponible dentro de n años.

F.srAt)^srrc a E.sN.^atic^^.a

^^i

_ _..

_

_

_

obtendremos el ajuste de la función exponencial ^^* = 9 `

me^diante la transformación s^emilog,arítmica, a través de la expresión .^ ^ .r;. l n y; r= ^

A = anti log

n

^

^ '^ 1 f=%

y mediante la evaluación de sus elementos, obtenemos los resultados que incluímos en la siguiente tabla,

TABLA Il

AJUSTE MEDIANTE TRANSFORMACION LOGARITMICA YAJ (I) = A * * X (I)

YLCiG

XYLOG

1.0000 4.0000 9.0000 1 b.0000 25.0000 36.0000 49.0000 64.0000 81.0000 100.0000

-0.1 16533816 --0.22 3143 5 51 --0.342490309 -0.446287103 -O.Sb21 18918 --0.673344553 --0.798507696 --0.891598119 --1.049822124 --1.139434283

--0.116533816 --0.44628 7103 --1.027470927 -1.78514841 1 -2.810594591 -4.0400b7320 -5.589S53874 -7.132784954 -9.448399120 -1 1.394342832

385.0000

--6.243280474

-43.79 1 1 82947

X2 1

2 3 4

5 6 7 8 9

10

EL VALOR OBTENIDO MED ^IANTE TRANSFORMACION LOGARITMICA PARA EL PARAMETRO .. A.. ES: 0.892486999

59

L{)S ('RITERIOS Df- AJt'STf: ti' t_A OPTIMIlA(`I(^ti ti1 ^>T f ti1-1^T1( ^^

En la que, X2 nos dá los cuadrados de la variable X, YLOG los logaritmos neperianos de los valores de la variable Y y XYLOG los productos de las valores de X par los logaritrnors neperianos de Y. A partir de la obtención del valor A„ del parámetro A mediante la transformación semilogarítmica de los datos originales, la tabla siguiente, muestra los valores ajustados para la variable Y, YAJ dados por A„`i, los errores YERR, obtenidos por la diferencia y; - A; % y sus cuadrados YERR2. TABLA III I

YERR

YAJ

1 2 3 4 5 6 7 8 9 10

YERR2 .

0.892486999 0.796533043 0. 71089 5 3 86 0.6344ó4889 0.566251 óó5 0.505372249 0.45103 81 ó2 0.402545ó96 0.359266800 0.320640948

-0.002486999 0.0034ó6957 -0.00089 5 3 8 ó 0.0055351 1 1 0.003748335 0.004627751 -0.00103 8162 0.007454304 -0.009266800 -0.000640948

, 0.000006 1 8 5 0.000012020 0.000000802 0.000030637 0.000014050 0.00002 1 4 1 6 0.00000 1 0 7 8 0.0000555ó7 0.000085874 0.00000041 1

5.639495838

0.010504162

0.000228039

Podemos observar, por tanto, que el valor que toma la función, n

n

0( A^ _ ^ (!'^ - A,`' ) _ ^ i^ I

i^ !

para el valor A^, obtenido es del orden de, ^ e, (A^j) = e (0.892486999) = 0.000228039 no anulándose la suma de los errores, n

^ e;-o.olaso4 i^ 1

por tratarse de una fun ^ ión de ajuste que no posee un parámetro que actúe como término independiente.

NsrAr^ísr^c _t^ E-:^^^^ _ ^vca^.A

^0

Una vez obtenido el valor A,,, que tradicionalmente se ha considerado como el punto donde la funció^ n ca(A) alcanza su valor mínimo, en la tabla siguiente rnostramos los cálculos necesarios para probar gue dicho punto no satisface la condición necesaria de extremo, esto es, que en dicho punto no se anula la derivada de la función ,0^ (A), ya que como hemos visto en (5 ) esta condicíón necesaria implica la igualdad, n

n

^

^ t^, . .x, A `^ = ^ x, . A ` r=l

^^l

y aqui obtenemos un valor absoluto de la diferencia de ambos miembros de la igualdad del orden de 0.0287955ó que representa aproximadamente un 2°^ao de dichas sumas.

TABLA 1V 1

V.X.A ** X

X.A ** (2.Xy

1 2 3

0.794313429 1.274452870 1.514207171

0.796533043 1.268929779 1.51 b 116748 1.610182783 1.ó03204741 1.532406bb2

4

1.6242 301 17

5

1.ó13817245

6 7 8 9 10

1.546439083 1.42U77021 1 1.320349882 1.1 3 1 690420 1.026051034 13.2663214+62

1.42404796ó

1.29ó344298 1.1 b 1 b53702 1.02 $10617 7 13.237525899

EL VALC^R ABSOLUTO DE LA DIFERENCIA DE SUMAS ES: 0.028795563

Podemos concluir afirmando que, como hemos visto en este ejemplo, en general las transformaciones logarítmicas de la función de ajuste, no conservan, al efectuar la transformación inversa, el mínimo que deseamos obtener para la función ,a(A) de los cuadrados de los errores, ya que el valor obtenido minimiza la función 0, (A) que no se transforrna en ra(A) al aplicarle la transformación inversa de la utilizada para definir a e, (A). El valor A^, obtenido como mínimo de e, (A) no cumple la condición necesaria de extremo en la función ra(A}.

F_OS (:^RITF:RIOS F^E_ .1Jl;STE: l^' l_A OPTIl41Fl.^(^It^)\ ti1.^^TF ti1 ^^ T Ft •1

Según nuestra opinión esto cuestiona de una forma clara la aplicación que corrientemente viene efectuándose de las denominadas "linealizaciones de la función de ajuste" por aplicación de transformaciones logarítmicas.

5.

LA BUSQUEDA DE OPTIM4S Y EL CALCULO NU MERICO.

Como hemos visto en el epígrafe anterior, el recurso de linealizar respecto a sus parámetros, la función a ajustar, obteniendo entonces una condición neeesaria de extremo, dada por el sistema de ecuaciones lineales (7), de resolución relativamente sencilla incluso si la dimensión del vector incógnita de los parárnetros c^ es grande, no resulta apropiado pues el vector de parámetros a^ que satisface la condición de óptimo en el problema transformado, no la cumple en el original. Por todo ello, no queda más remedio que abordar directamente el problema de minimización de la función de los cuadrados de los errores, respecto a las variables originales s (a^ ). La solución que tratamos de encontrar será un vector u^ que satisfaga la condición de extremo para la función o (^) y como sabemos, esta condición viene expresada a través del sistema de ecuaciones (1), no lineal en las componentes del vector a^ , y por ello de difícil solución, nosotros enfocaremos la obtención de dicho vector, utilizando métodos de búsqueda basados en algoritmos iterativos de cálculo numérico, en particular, si el vector es unidimensional consideraremos el algoritmo basado en la sucesión de Fibonacci que pasamos a describir seguidamente.

S.l.

UN ALGC)RITMO NUMÉRICO DE BI^SQUEDA DEL MÍNIMO DE UNA FUNCI(^N DE UNA VARIABLE, BASADO EN LA SUC`ESI('^N DE FIBONACCI.

En este subepígrafe analizaremos el método de búsqueda deí mínimo de una función y=,J(.x) en un intervalo dado, que denominaremos, intervalo de incertidumbre inicial, y que utiliza un algoritmo numérico basado en la sucesión de Fibonacci. Consideremos el intervalo [a,h] c R, en el que está definida la función t• =.R.x) y en el que nos interesa obtener un valor .xmE [a,hJ en el que la función alcanza un valor minimo. El problema consiste en construir un método que nos permita mejorar el intervalo de incertidumbre, reduciendo su longitud, hasta un valor E, que consideramos como suficientemente pequeño y que denominarernos amplitud del intervalo de incertidumbre final. La reducción del intervalo de incertidumbre, se realizará a través de un proceso de evaluaciones sucesivas de la función .J(.x) en diversos puntos del intervalo [a,h], con lo

F ti t ti1)I1 T 1( ^^ tiP 1 `^l)!. ^t

h?

yue existirán tantos métodos como criterios existan para elegir en el intervalo [a,hJ el punto o puntos en las que debe evaluarse la función en cada una de las etapas de las que consta el proceso iterativo. Por todo ello, será preeiso encontrar un criterio de elección que maxirnice la rapidez en la búsqueda del rninimo, esto es, un método iterativo de elección, que obtenga el mínimo buscado en un númera mínimo de etapas y con ello de evaluaciones de la función.

EI método bas^ado en la sucesicín de FiBC^NACCI, definida por, F„=F,= 1 y F^ = F^-^ + F^_, para ^ E{2,3,...} resuelve el problema, ya que comparándolo con cualquier otro método, es el que logra una reducción mayor del intervalo de incertidurnbre entre dos etapas sucesivas.

Todo método de búsqueda debe cumplir que después de una cierta etapa, el intervalo de incertidumbre sea menor que el correspondiente a la etapa anterior, y por ello un método será tanto mejor cuanto más alta sea, por etapa, la tasa de reducción en la amplitud del intervalo de incertidumbre. En primer lugar, consideraremos la amplitud del intervalo de incertidumbre inicial, en unidades de intervalo de incertidumbre final, esto es N-^-aE1 rnétodo iterativo, consistirá en que situado en una cierta etapa r, cuyo intervalo de incertidumbre [ar,h,.] en unidades E, tendrá amplitud 1 r, deberemos disponer en dos puntos c•,. < dr de dicho intervalo de los valores de la función y^ ' e ^-^^' de forma que según sea ^•'^' ^ > ti^'^^^ `, el nuevo intervalo de incertidumbre será, . ^^ < i^'^^ ' a y'^'

rJ a bien [a,^,

[ar+l ^ ^r+ hr+l - ^

- C^r+ hr+l ` ^r^

siendo su amplitud 1 r+,, en el primer caso er E[Ur+l ^ ar+ hr+l - dr^

y en el segundo dr E [Qr+l - ^•r+ ^r+l ^ brJ

entonces la {r+l ) etapa se podrá completar eligiendo un nuevo e, que junto con cFr ó dr puedan reducir el intervalo de incertidumbre de forma idéntica a lo hecho en la etapa anterior.

I.Oti ( fll I f f+ilt)ti I)f ^.ll ^T t 1 l^^ t)P1 Iti11/ ^( IOti ^1 1 I f^1 1 F It ^

hz

Puede demostrarse (*), que el proceso iterativo se optimiza en cuanto a su rapidez, si se eligen como puntos del intervalo, aquellos que correspondan a términos de la sucesión de Fibonacci, expresados en unidades de intervalo de incertidumbre f nal.

Este método de obtención tiene la ventaja de que es ampliamente aplicable a todo tipo de función, sin necesidad de que éstas sean derivables, y proporciona un extremo dentro del intervalo de incertidumbre inicial si este existe. El óptimo es relativo, pero mediante nuevas aplicaciones del proceso a las dos partes en que queda dividida el intervalo inicial por el valor mínimo relativo, puede comprobarse si este es absoluto. S. ^ .

(^TR^S ALGORITMOS PARA RESOLYER EL PROBLEMA C;ENERAL.

Además del algoritmo basado en la Sucesión de Fibonacci, existen otros basados en la aproximación polinómica, nosotros hemo5 contrastado los resultados obtenidos mediante la elaboración de programas basados en dos algoritmos que utilizan las correspondientes subrutinas de la librería N.A.G.(**), la primera utiliza sólo valores de la función y se basa en la aproximación de un polinomio cuadrático mientras que la segunda. aproxima un polinomio cúbico pero utilizando también los valares correspondientes a la primera derivada de la función. La generalización a un vector ^.^^--dimensional se efectúa mediante algoritmos basaclo en los métodos del gradiente, con aproximación lineal y los métodos derivados del de Newton, con aproximación cuadrática (***).

Todos estos métodos generales, consisten en generar una sucesión {^ ^}, con ^^ del dominio de er (^ r^ >, que sea convergente al punto ^* extremo que desearnos localizar, la sucesión se genera de forma que sus términos cumplan la siguiente relación de recurrencia,

^ ^+^ = ^ ^ + a^•Ií^ ^ donde p^ es la dirección de búsqueda y xA es la longitud de la etapa ^--ésima, tomadas de formas que e (^ ^+,) < +a (u^ ,^}. La dirección, dada por el vector ^^, se determina por alguno de los métodos mencionados, la mayoría de los cuales se basan en el gradiente de la función, una vez

(*) Ver por ejernplo PUN, Lucas; Introduction a la Practique de 1'optimisation, cap. 3. Numerical Algorithms Library Mark I I. (**) (***) Ver GILL, P. E. and MI^RRAY, W. "Qu^r.^^i-Nc^ ^vtun n^c^th^^c^.^ . J^r r^ ^tc^c^r^.ti^trurrrc^cl ^^h^in^izutic ^ ^^ ".

fi-3

t-St^tt)I^^TIt: •^ t.tiPAti()l_•^

determinada la dirección que reduce más rápidamente el valor de la función ^i(c.^) en el punto r.^ ^, se determina la longitud a^ utilizando alguno de los algoritmos de funciones univariantes expuestos anteriorrnente.

La iibrería N.A.G. dispone de subrutinas diseñadas específicamente para resolver el problema de ajuste mínimo-cuadrático con vector de parámetros .^-dimensional (*). ^.

APLICACION A LA OBTENC[ON DEL AJUSTE MIN[MO-CUADRATICO DE UNA FUNCION DEPENDIENTE DE UN SOL© P'ARAMETRO.

En este epígrafe, aplicarnos las técnicas de cálculo numérico descritas en el anterior, a la resolución del problema planteado en el epígrafe 4 y que allí, no obtuvo solución satisfactoria, esto es, al ajuste mínimo-cuadrático de fitnciones no lineales en los parámetros del vector ^ .

Si la función a ajustar es ^'*=g(.^ ; a^) sabemos que el criterio de ajuste mínimo-cuadrático nos da como solución al problema de ajuste el vector de parámetros que minirniza la función d^(a^) =

I^ e;'= ^^, (.v; - ^(-^`; ; a^) )` r_^ ^_i

Esta función ^i(ú ) quedará totalmente especificada al conocer la característica funcional ,^ de la funcián a ajustar y las observaciones de las variables Y y?^ dadas por .

-^-

(l^ , .t ;, ) ^ifi{ I . 2...n ^

Con estos datos que determinan la funcián a minimizar ^i(a^) y aplicando las técnicas de búsqueda de áptimos, obtendremos e1 valor ^{, que en un recinto dado de variación, minimiza la función ^i(c^ ), y por tanto tendremos resuelto el ajuste mínimo cuadrático de una curva de la familia k{^ ;^), pues podremos asegurar que la función g(^ ; a^^,) satisface los requisitos planteados en la def nición del criterio de ajuste basado en minimizar la suma de los cuadrados de los errores.

(*)

Ver GiLL, P. E. and MURRAY, W. "AlKorithms _Jur the sotutiun uf the non-linear has!-squares ^arcrhlPm ".

E.Oti ([tl I E RtOti DE: ,>Jl.'ST^E^: ti` l_^^^ OPTI!^111^^(^I(^ti 11 ^ i E tit 1 i I( ^^

FJ. I.

EJEMPLO APLIC'ADO AL AJl'STE: EXPt7NENCIAL.

Como ejemplo de aplicación del método nurnérico de minimización dado por el algoritmo basado en la Sucesión Fibonacci, tornarernos de nuevo et caso de ajuste exponencial del subepígrafe 4.1., con lo que la función a minimizar será, ,^ ^tA) = ^ ( ti'; - ^1^^')`' ;_^ y aplicando al problema tratado en el subepígrafe 4.1.1. mediante transforrnación logarítmica, en dicho problema ei parámetro "A" a determinar era el factor de actualización anual, A= 1 y al ser "i" el tanto de interés siernpre positivo, el campo de 1 +i

variabilidad del parámetro, con sentido financiero es,

0


intervalo en el que aplicaremos e1 algoritmo numérico, tomando como se expresa en el listado reproducido en la tabla V, un intervalo de incertidumbre final de arnplitud E = 1 o-y

F ^^ T ^ I)E^, ^ 1( > E ^F' Z `^( )1 ^^

hh

TABLA V

MINIM^^C'lÓN MEDIANTE EL ALC30RITM0 NUMERICO BASAD(J EN LA SUCESiQN D^E a DATC^^S .-^ AJUSTAR CORRESPONDIENTES A LAS VARIABI.ES X e Y ^í ú mc^ro dt ohser^^aciones : 10 VALORES DE «Y»

V.A,LCJRES DE «X» l . C1C1

0.89

? .oo

0.80

3 .04

0.71

4.00

O.b4

5 .00 6.04 7 .0(J 8 .04

0.57 0.51

9 .00

0.35

10.00

0.32

0.45 0.41

. FLINCION A AJUSTAR POR MINIMOS CUADRADOS

YY = A ** X (I)

INTERVALO DE VARIACIÓN DEL PARAMETRCJ * A*; - EXTREMO INFERIOR = O.oooa - EXTREMO SUPERIOR = 1.0000 N Ú M ERO DE DECiMA LES DE PRECISIÓN = 9

La aplicación del algoritrno iterativo, proporciona de forma instantánea en 43 iteraciones el valor del parámetro A que minimiza la función ra(A} en el intervalo [0,1 ], las iteraciones efectuadas y el resultado obtenido para el parámetro A, quedan recogidos en la tabla siguiente VI.

IOti ( ftl^T f Rtt)^ Uf ,^1J1 ^1 E^ l hOPT i^if •^1( IO1 ti1 ^ T F ^1 1 T I( 1

TA,BLA VI

TERMINO SUCESIC)N

VALOR DE * X*

VALOR DE LA FUNCION

43 42 42 41 39 39 38 36 35 35 33 33 32 30 29 29 28 26 26 24 24 23 21 21 19 19 17 17 16 14 13

0.701408733 0.433494437 0.866988874 0.969323029 0.803742888 0.906077043 0.9302 34860 0.891 146691 0.881919226 0.896849578 0.8876221 13 0.893325000 0.894671269 0.892492960 0.891978731 0.892810771 0.893007189 0.8926893 78 0.892885796 0.892 764403 0.892839428 0.892857139 0.892828482 0.892846193 0.892835247 0.892842012 0.892837831 0.892840415 0.892841025 0.892840038 0.892839805 0.892840182 0.892839949 0.892839894 0.892839983

1.1730075559735809 2.4961788292959859 0.0522862755754780 0.9049469946739876 0.4271901123791U84 0.0177345797721818 0.1645905044038298 0.0004767706376991 0.0104186391860633 0.0017299603382739 0.0026316351259300 0.0002382837534025 0.0005278985493081 0.0002276576216367 0.000284293834?850 0.0002167160038993 0.0002192055035013 0.000218715749?882 0.0002168305ó18342 U.0002171612857425 0.000216637871á795 0.0002166649012309 0,0002166499386657 0.0002 1 664 1 403a8 70 0.0002166398868393 0.0002166382295738 0.0002166382629170 0.0002166378638058 0.0002166379482927 0.0002166378457201 0.0002166378475788 0.0002166378495507 0.0002166378452546 0.0002166378456933

13

11 10 10

o.oao2166378452609

t. ti r 1OItiTI('^1 t SF'^1!^(^L. A

f^K

TABLA VI TERMINO SCICESIflN

VALOR DE *.x *

8 8 7 5 5 4 2 2

0.892$39928 U.8928399b2 0.892839970 0.892839957 0.8928399b5 0.892839967 0.892839964 0.892839966

VALOR DE LA FCJNOI(JN 0.()04216b37845356b 0.000216b378452319 0.00021bó378452334 0.4002166378452370 0.0(}02 1 663784523 1 l O.OQ02166378452315 0.000216b378452312 0.0^021b6378452312

EL VALOR DEL PARAIVIETRO ** A** QUE MINIMIZA LA SUMA DE LOS CUADRADOS DE LOS ERRORES ES : 4.892839965

CJbservamos que el valor obtenido para el parámetro A en el ajuste mínimocuadrático es del orden de AC, =0.8928399b5 mientras que el obtenido en ei subepígrafe 4.1.1. mediante transformaeión logarítmica de la función a ajustar era

AÚ =0.892486999 produciéndose una diferencia significativa a partir de la cuarta cifra decimal entre 3 y 4 diezmilésimas, esto representa en el valar de la función objetivo a minimizar r^(A) que ahora toma el valor

ca {A^,) ^.).00021663?8 siendo allí

a (A^,) ^J.OU0228039 La tabla VII rnuestra los valores ajustados (YY) para el valor A,^ del parámetro, y los errores junto con sus cuadrados.

6y

Lt)S CRfTERIOS DE AJi^STF: Y l.A t)PTIMI/.At'I(^1ti L1'^ i E:MÁT i('-^

TABLA VII

I 1 2 3 4 5 ó 7 8 9 10

TABLA DE RESL.JLTADO^S DEL AJUSTE MINIM4-CUADRATICO E E2 YY 0.$92839965 -C1.002839965 0.000008065 0.7971 ó3203 0.002836797 0.000^}08047 0.7I1739166 --0.00173916ó 0.000003025 0.6354ó9172 0.004530828 0.000020528 0.567372274 0.002627726 0.000006905 0.506572ó41 0.003427359 0.0000 1 1 747 0.452288299 --0.002288299 0.000005236 0.403821069 0.006178931 0.000038179 0.3ó0547589 -0.010547589 0.0001 1 1 252 0.32191 1297 -0.00191 1297 0.0^003653 5.649724675

0.000275325

0.000216b38

(Jbsérvese que la suma de los cuadrados de los errores ha disminuido en ,a{A') - 0{A^) - 0.00001 140I2 que representa una mejora aproximada del 5% respecto a los errores cornetidos por la función ajustada mediante transformación logarítmica

e ( A ; ) - el ( A ^, ) ^ 0.00001140 I 2 ^ , - 0 05. _ 0.000228039 e( A * ) En la tabla VIII se comprueba la condición necesaria de extremo dada por (3),

7Q

F^STA[^ÍSTI('A ESPA!'^OLA

TABLA VIII . I

Y * DF[JNAJ

FU NAJ * DFU NAJ

1 2 3 4 5

0.890000000 1.428543854 1.b97957211 1.822052002 1.81 1086807

6 7

1.73b 158819 l .595703ó50

0.892839965 1.423478243 1.70211 b4Q$ 1.809152934 1,802737b 13 1.724491290 1.60381 ?976

8 9

1.483505526 1.272036123

10

1.153752136

1.3103701 b4 1.1 ó0643270

14.890796127

14.890796126

1.461 14$262

EL VALOR ABS(JLUTO DE LA DIFERENCIA DE SUMAS ES: 0.000000002

danda prácticamente iguales ambos miembros de la ecuacián que caracteriza a A^, como posible extremo en contraste con lo que ocurria en la tabla IV para Al , en el que la diferencia en valor absoluta era del orden de 3 centésimas.

Por último en la tabla IX, TABLA IX CCINDICIfJN DE SUFICIENCIA DE SEGUNDfJ ORDEN

I

2( DF ** 2-(Y-F). D2 F)

1 2

2.000000000

3

1 1.457073 1 1 7

4 5

16.123636400 20.11 b235774

6

23.046925510

7 8 9 10

25.257405b26 25.8 3 3 7 1 0400 27.104524757 26.137834U08

6.365957632

183.443303223

LOS C'Rt"TERIUS DE AJUSTE Y' LA OPTtMilA(7(^!^ MATEMÁ"TI( A

Se comprueba !a condición de suficiencia de segundo orden dada en el subepígrafe 3.3.1. resultando

[

d1 e ( A)

z ]>o

d A A a .^^

con lo que se trata de un mínimo.

7.

GENERALIZACION DEL METODO DE AJUSTE MINIMO-CUADRATICO Y OTROS METODOS DE AJUSTE. En este epígrafe se generaliza el rnétodo de ajuste mínimo--cuadrático, consideranda

potencias de los errores distintas al cuadrado que da nombre ai método mínimocuadrático desarrollado hasta aquí, y se plantean otras posibles métodos de ajuste que tienen como objetivo minimizar otros parámetros representativos de la distribución de errores en el ajuste.

7. 1.

UN PLANTEAMIENTO ALTERNATIVO DEL AIUSTE MÍIVIMCK'UADRÁTIC:O.

Como hemos dicho en el epígrafe 3 de este trabajo el criterio de ajuste mínimo cuadrático consiste en minimizar la función n

,

µ C^ ) _ ^ ^ para una cierta familia de funciones a ajustar dependientes del vector de parámetros a^, k' (-^ ; ^ ) obteniéndose por tanto que n

^ (^ ) _ ,^ Ey-g (^ ^ ; ^ ) j` = e (^ ) ^_ ^

pero si efectuamos una transformación estrictamente creciente de ra (ci ) la nueva función ra* (a^ ), poseerá un rnínimo en el mismo punto que la original, esta es, si definimos, e^*(^)_[ 1 . e(a^)]^ n.

tendremos que

ESTADÍSTIt`A ESPAtiOL.A

1

o ,a* a(^ ) = 1 . [ I . e Ca7' ) j^ } - 1 , o s (^ ) = ---- . e (á ) - } . o s ( á ) 2 ^

n

n

2

--i

--^,

luego ^ e* (^` ^,) = o implica que © e (a^C ^,) = 0 siendo e^ (ú ^,) ^ 0 y para ver que el punto conserva su carácter obtengamos la matriz hessiana, para ello dada, a ^,*(á )

1

^(á )-^

a^t^) r

derivaremos respecto a a^, obteniendo

2 *( ^ ) 1 ^ ^ a _ 1 --^. - .^)^a . a ^ (Q ). a ( á ) + ^. (----) . r^(a aa; aa aa ; aa; ^ - z,1 M z

+ ^ (^ )-^

a2^^ *l^) aa; aa^

=

1

. e(á )

ó^i(á ) 1 ---.

aa;^aa^

2 yñ

z

1

.

a¢^(á^ )

¢a(Q ) aa;

.

a^(á )

aai

que nos da una matriz hessiana

H q^ ^` ( ^á ) _ ----- . e (a' )^}

2 ^

1 H ^ ( a^` )-

. o í^ ( í^ ) • ^7 d^ ( ) ^

2.^ (^)

y en el punto ^^, que satisface la condición necesaria de extremo, tendremos

1

H^* (á ) _

2

^} . H ^ (^)

l_OS (`RITERI(7S DE AJl!STE ti" i.A OPTIMIIAt lOti M.ATI`:M,ÁTit`,A

con lo que se diferencian arnbos por un factor positivo, lo que no altera su carácter, esto es si H^ (á ^,) era definida positiva lo será H^* (u^` ^,) y recíprocamente, luego un mínimo de ^(a^ ) se corresponde con uno de ^* (a^ ) en el mismo punto ^^,. Una vez hemos visto la equivalencia de planteamientos desde el punto de vista del a }, analicemos ahora el significado de minirnizar la valor mínimo de ^i (ú ) y de +^* (^ función alternativa, n ^

*(^^`)=

1 •^ (á^)]^=^1

^

n

n

2

}

^ e r^ i ^ 1

que resulta ser la media cuadrática de los errores del ajuste. Este hecho, permite interpretar el método de ajuste rnínimo-cuadrático, como aquel que obtiene la función de ajuste de entre las de una familia, observando los errores que ésta comete y sustituyendo su distribución por una medida de tendencia central utilizando a estos efectos la media cuadrática. Entonces podemos concluir diciendo que el rnétodo de ajuste mínimo-cuadrático nos da la función de ajuste para la cual la media cuadrática de los errores es rnínima. 7.2.

UNA GENERALIZACIÓN DEL AJUSTE MÍNIMO-CUADRÁTICO. CRITERIO DE LA MEDIA POTENCIAL DE ORDEN CX.

Bajo el planteamiento desarrollado en el subepígrafe anterior, el problema de ajuste ha quedado planteado como, la minimización de la función ,u (^ ), donde ésta nos dá en particular la rnedia cuadrática de los elementos del vector de errores e^. Si consideramos ahora, que ^ es función del vector de los valores absolutos de los errores que simbolizaremos por e^ Q, siendo sus componentes, (eQ); = Ie;)

d iE { 1 ,2,...n}

el criterio de ajuste mínimo-cuadrático, dado por n ^mc (e^ ) _ ^ P1 i=1

corresponderá exactamente al dado por ,um^, (é ^) ya que,

n 7 n ^ n ^ ^ ^mc•(e Q^ - ^ (eu)i ' ^ ei - ^

i= 1

i= 1

i- l

( P^ ) Ii1 (' \

ESTADÍSTi( A ESPA^()LA

con este planteamiento, podernos generalizar el rnétodo de ajuste mínimo-cuadrático, suponiendo que la función,

nos dá la media potencial de orden a, de la distribución de valores absolutos de los errores del ajuste. (*) Con ello la función a minimizar será, e^ ^*(^}_[ 1 • ^ ^ ^`^ n r=1

^-^«

y para a= 2p con pEN, tendremos que será equivalente a minimizar la función, ^

rÁ (^^ ) -- ^ e^P ^=1

Surgiendo para p=-1 el caso particular de ajuste mínimo-cuadrático. La necesidad de tomar valores absolutos en las componentes del vector é de errores del ajuste, hace que solamente sean tratables mediante el instrumento del cálculo diferencial, los valores de a= 2.p, pues solo entonces desaparecen los valores absolutos que hacen que no sea derivable la función ^i* {u^ ).

?^o obstante, mediante algoritmos numéricos de minimización en los que no sea necesaria la derivabilidad de la función, podrá utilizarse a E R, pero s+ólo consideramos a> 1, ya que como sabemos por las propiedades de la media potencial de orden a, ésta es creeiente con a, lo que nos indica que se dá tanta mayor importancia a los errores grandes cuanto mayor sea el orden a de la media potencial. 7.3.

CRITERiO MIN1-MÁX LÍMITE DEL DE LA MEDIA POTENCIAL DE ORDEN a.

Sabemos por las propiedades de la media potencial de orden a, que cuando a-^ ^ a media potencial tiende al máximo valor de la variable, con ello, cuando a-^. ^ obtendremos un criterio dé ajuste límite de los criterios de la media potencial dados en ei subepígrafe anterior, sea el criterio dado por la minimización de la función o* (a^ ), tal que: (*) Para un desarrollo completo de las propiedades de ^a media potencial de orden a, ver Alegre Escolano, Antonio "`Sobre !as distintas medias de una distribución estadlstica. Análisis y comparación. " páginas 13-2 5.

LOS C'RITERIC)ti DE'. A1l'STE Y L_A OPTIMII.A(^I('iti M:^^-TE.M.^T IC`A

1 ^ e, ]^ ^ _ 0* (a^ ) _ lim [- • ^ ( ^^` a^ ^ n i-1 . = Irm a^ ^

[

max{^e,^}^`.

1

n

. ^

j^

i

1 n max{^ei^}. [ . ^ =1im ^^ n ^_^

r

[

^ ef I

max { ( e l ^ } ( Pr I

[

max {^ e^^ }

]

1

1 J x

=max{^e;^}. 1 =max{^ef^} ya que,

0_ le') 1 C max { ^ e,^ . } ^

d iE { 1,2,... n}

luego como criterio límite hemos obtenido el criterio MINI-MAX, consistente en minimizar la función que nos da el máximo valor absoluto de la distribución de los errores del ajuste.

e^* (á ) = max { I ei ^ } ie (1,2....n} obsérvese que este criterio límite trata de minimizar el máximo de los valores absolutos de los errores, con independencia de los demás, pues como ya hemos dicho la media potencial de orden a es creciente con a y da mayor importancia a los valores grandes de la distribución, despreciando en el límite la consideración de todas las componentes del vector de errores ^^, a excepción de la máxima de ellas, max {^ e; ^}.

%.4.

CONDICIONES NECESARIAS Y SUFICIENTES DE SEGUNDO ORDEN, PARA LA EXISTENCIA DE MÍNIMU EN EL CRITERIO DE AJUSTE P4R LA MEDIA POTENCIAL DE ORDEN Gt'CON Cí^^ .p Y p^ N.

Como hemos visto, en el caso en que el orden de la potencia sea un número natural par, el criterio de minimizar la media potencial de orden 2.p del vector e^ a de valores absolutos de los errores, equivale a minimizar la suma de potencias de orden 2.p de los errores componentes del vector é,

n

9^ (^ ) _ ^ i=1

^ [J'^-'^ (^ ;, a^ ) ^z p ^ =i

7fi

ESTADÍST1t".A ESPAÑOLA

la condicicín necesaria de que el gradiente sea el vector nulo, vendrá dada aquí por el sistema de ecuaciones siguiente,

a^^`) _ aa;

n

^ 2 •^^ • [y^S (X^;á) l ^^^`` • ^- a$^ ^^^^^ ^_ a aa;

;=1

y simpiificando quedará,

n

^ C v^ S (.z; • a^ ) ]^^^' , ^-1 '

a

^(

, aa;

z ; ^` Í

i 0 con j^ {1,2,...s}

que ya no es lineal en las componentes de a^ , ni en el ca.so particular de que la función a ajustar g(a^c ;;r^` ) lo sea, por lo que no son aplicables los recursos que tradicionalmente se utilizan en el método minimo-cuadrático en e! que p=1, para obtener las componentes de r^ que cumplen el siste^na de condiciones necesarias de extremo, Serán aplicables los algoritmos de cálculo numérico que ya hemos utilizado para resolver el ajuste mínimo-cuadrático cuando la función de ajuste g(x^ ;a^ ) no es lineal en los parámetros componentes de a^ . La matriz hessiana que nos dá la condición suficiente, tendrá como elementos las segundas derivadas tales como,

°^2 ^ ( a`^)

aa; aa;s

Z.r^-,, ( .z^ ; ^ )+ ^^ ( zj ; á ^ ) a8' " , ._ . ..^ -- -2 .p ^ [ (2 .p--1) . [,y -g (^ ;;^ ) J .[_

;^ ,

a a^^

a a^ .

+ [y ^ - ^(^ ^;^ ) ]Z"^' . ag ( xl ' ) !

i

= 2.p. n^ ^s^

^

[ (2.,p^-1) CY^ 8{^`;;c^

l1 . ) ]2.(p`"

1 J

^g ( x; ^ ^ ) ag ( X ^ ^ )

.

CiQ^

'

-

C7(^I j^

.^ Z.p-^ . a2^ (^ ;^ )

- CY; S C-^ , ) l

-

aa^ .

ci Cl ^

aa; aa;°

]

77

LOS CRITERIOS DE AJLISTE Y LA OPTIMIfAC'IÓN MATEMÁTIC'A

de la que haciendo p=1 se obtienen las derivadas correspondientes al caso mínirnocuadrático y que ya consideramos en el subepígrafe 3.3. 7.4,1.

Caso particular en que z^ y a^ svn unidimensionales.

En particular si el vector de parárnetros es unidimensional, la función ^{a) será función de una única variable a y las co^ ndiciones necesaria y suficiente de mínimo serán, d^ {a) " Lv;_g{x, ,•a) j`^ ^.- 1 , [ _ dg (X; ^ a) ]=0 ----2p. ^ da % =1 da que nos da la ecuación no lineal en a 1.^, dg (X; ; a) " . ^ (y-g ^ (x; ; aj % =1 da

^^ ( a^

, da `

,

n

=2p. ^ [(2.p-1)Cv^-g(x;^a)] % 1 -[Y^-g(x;; a)j^^^f .

^ d`g {x; ; a)

?.(/^-ll

•[

^c^(X;;a ^

da

,

l`-

] >0

da `' que determina la condición suficiente.

%.S.

UTROS CRITERIOS DE AJUSTE.

Podriamos plantear otros muchos criterios de ajuste, que darían mayor importancia a propiedades diversas de la distribución de los errores, como ejernplo vamos a considerar que se pretende minimizar el rango de los errores.

7.5.1.

Criteriv de ajuste mínimv-rangv.

Este criterio consiste en considerar la distribución de los errores y sustituirla por una medida representativa de la banda de errores, como podría ser el rango de éstos, entonces, la función a miñimizar ,u (é ) tomará la forma,

E ST ADÍtiT IC"A EtiPA!VC)LA

^.[ ( ^ }

= max {P, lr c !t.2

n}

- min {^, ^r c i t.?

n^ ^

= max {Y, - R ^^`, ^ ^ } ^r e {t.^ n} - min

-

(7

(^

!

^

^

f

^r G

t t.4 ... nl ^^

^^ ^

^

)

El tratamienta de esta función mediante el algoritmo numérico de minimizaci$n no ofrece dificultad, aún cuando no le son apiicables las técnicas usuales de cálculo diferencial para obtener condiciones necesarias y suficientes de mínimo.

7.6.

1'[VERSOS C:`RiTERIOS DE AJUSTE APLIC'AD()S AL EJEMPLO DE LA FUNCICSN EXP4NENC'IAL.

En este subepígrafe final del trabajo presentamos los resultados comparativos del ajuste de una función exponencial a los datos ya utilizados en las subepígrafes 4.1.1. y 6.1. anteriores,

Hernos elegido ocho criterios de ajuste que creemos pueden dar una idea conjunta de los resultados obtenidos en este epígrafe 7, en lo que hace referencia a la generalización del criterio de ajuste mínimo-cuadrático. Estos criterios se han simbolizado con un número romano del 1 al Vlti, los seis primeros corresponden a criterios de la mínima media potencial de orden a, siendo: 1: a=1 (Mínima media de los valores absolutos de los errores). II : a=2 (Mínima media cuadrática. Criterio mínimo-cuadrático). III : a=3. I V : a =4. V:a=8. VI : a =15. el VII corresponde al criterio mini-max, consistente en minimizar el máximo de los errores en valor absoluto, y es como hemos dicho el límite de los anteriores cuando el orden a tiende a infinito. Por último el VIII corresponde al criterio de mínimo-rango en los errores. La estimación del parámetro A de la función exponencial, se ha efectuado en cada caso a través del algoritmo numérico ya utilizado en el epígrafe 6., que como dijimos no requiere la derivabilidad de la función ^^ * (A), ya que los casos I, III, VI, VII y VIII dan lugar a funciones no derivables respecto al parámetro A.

LOS CRITERIOS DE A1l!STE Y!.A t)PT1M1'LAC`1C^N MATEMÁTICA

^9

Los resultados obtenidos se muestran en la TABLA X de doble entrada, donde por filas hemos recogido cada uno de los ocho criterios utilizados en el ajuste, indicando en la primera columna el valor obtenido para el parámetro A que minimiza la correspondiente funcián objetivo del criterio considerado, y en los restantes se han valorado la totalid^ad de las funciones para el valor de A dado, con lo que en la intersección de fila y columnas del mismo criterio se encuenrra el valor mínimo que le corresponde a ^r* {A). Si analizamos las columnas de valoraciones, se observa que el valor mínimo por columna se alcanza en la fila que c©rresponde al criterio, pues en ella se ha valorado la funcián en el punto en que se alcanza el rnínimo. Las filas nos dan por el contranio la valoración de cada criterio en el punto óptimo de uno de ellos, en particular, en la fila correspondiente al criterio II coincide el parámetro estimado con el obtenido en el epígrafe 6 aplicando el criterio rnínimo-cuadrático en su planteamiento original, siendo el valor de su función objetivo ^' (AU) _^ A,)/ 10 ya que ^ (Ao) nos daba la suma de los cuadrados de los errores y ^* (A^,) nos dá la media cuadrática.

ESTADÍSTIC'A ESPAÑUL.A

. ^ ti ^.. r-

v^ ^ ^ .^ r-

^ ^ c^.^ t^-

^ ^ C t'^

^ ^ © Ó

^O ., O O

^?+ 1yp

r-M

._.

...

^O

^/9 t'^ !^ 1/'^

r+'f R"`^ M ^*J M Q C'^ ^

4 h^

^ N

^ 00

N t`^

^}

K1

M

dfJ

r-

^

^

G7

G7

G?

Q

a

^

0

0

©

^i

40

^

^C

^/"1

N'1

N ^O CT N d' ^/'^ ^D Q M

M N ^ 00 ^

M f'+ ._. ^ t`^-

O"^ ^-+ ._.^ ^ r-

^ N

Q 0

0

M

ó ^ C>

!t

V1 C`-

h ^ GT ^ ^

O

C7

^

C

0

Ó

©

Ó

O

O

M o^ ^o ^^+ ^ ^ N oo d^ M N ^D e+'1 ^+"i © CT

^;



°

e^

^» fT OG

M tT O^O

et CT GC^

^p rn ^

^ O Ó C^

v

o^

N

^o

^^ ^^^^ Q^ ^^ ^^ ^ó ^ ^ ^ ^^^ ^,^_

^ 0 ^..^

,^

Í.i.^

~

Q

N

^

tT

M ^n

^o M

^o ^D

^ r^

^ ^p

^ v^

^^ ^^ ^ ^

N [`^

Q^

O^ ^

^

Q

^

^

^

^

^

O

O

O

O

O

O

t^ 00 N ^!'^ OC --^ 4+0

N V"^ ^ ^

M --^ N et ['^ Q Q^ M ^D ^D N1 ^--+

M v'1 `p ^ M ^ I`^ ^D C'^ M tiD 80 00 N M et v^ rn v^ `^ C,T

^^ Q ^^^^^^ ^ ^ ^ ^ ^ ^Có E'^ e* 00 N M ^-^

..., .^.,

^D ao ,N

t`C4 tip N ^f t^- e+t et ^p OO

^ +'^*'1 ^ © O^O O^ 0^4 ^n O O r-^ KT O^ ^^O r^ O^ O^ ^T Q

^^^8^^^cQ= c^ ó c^ ci c> c^ © ó d'

^O

^ fV ^ CJ^ M M

^ ^ ^ G d' 00 ^o ^n V1 N t`^c+^ et CT [`^ O^ M Q^ © ^' ^G 00 00 Q^ O^O 00 Cn O^ C?^ CT O^ ^ f"^ M M M M t'n M 00 .7 ^

^ ^

G? 0

^

^

^

0

^

d

^ ^

^ ^

O O^ eT O oo N v-f .^00 O c-^n v^ .-r h^o Gn V7

^

Ñ

N

N

00

^ O+ Q^ CT CT O^O 00 00 CO o0 a0 00 ©

^ ^ ^

O

O

O

O

..^

O

^ ^..^

^ ? > > > > _

L.OS C'RITF:RIOS DE AJUSTE lr' LA OPTIMII,A('I(^N PvtA'TEMÁTit'A

8

BIBLIOGRAFfA ANTONIO ALEGRE ESCOLANO: "Sobre las distintas medias de una distrióucián estadística. Análisis y comparación" Anales del Instituto de Acuarios Españoles. Madrid, n.° 21, ar^o 1980, pág. 13-36. ALFONSO G. BARBANCHO: Fundamentos y posibilidades de la Econometría. Añel. Barcelona, 1962. (Cap. V ). GILL, P. E. and MURRAY, W.:

-"Algorithms for the solution of the non-linear least squares prohlem ". SIAIVI Journal on Numeñcal Analysis, 15, año 1978, pág. 977-992. -"Quasi-Newton methods for unconstrained optimization ". Journal for the Institute of Mathematics and its Applications, 19?2 vol. 9, pág. 91-108. PCHENITCHNY, B. et Y. DANiLtNE: Méthodes 1\lumériques dans les problemes d'extrémun. Editions MIR. Moscou 1977. LucAS PuN: Introduction a la Practique de 1'optimisation. Dunod. Paris, 1972 (cap. 3).

SUMMARY THE FITTING CRITERIONS AND THE MATHEMATICAL OPTIMIZATIC;N In this work we deal with the "Fitting Criterions" from the point of view of the Mathematical Optimization and particulary from the Extremun Research option, by means of the corresponding algorithms of Numerical Calculus. We analize the Criterion of the "Least Squares" and we reject the application of the Logarithmical Transforrnations far linearizing in its parameters the function to be adjusted. We generalize the Criterion of the "Least Squares" by means of the Criterion of the "Least Potential Mean of Orcier a" and the limit Criterion of the "Min-Max". We also study the Criterion of the "Least Rank". Key words: Fitting Criterions, Extremun Search, Least Squares, Least Potencial Mean of Order a, Min-Max, Least Rank. AMS, 1980. Subject classification: ó5 D 10.