Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Gujarati usando stata, Manuais, Projetos, Pesquisas de Economia

manual para auxiliar a rodar as regressões do livro de econometria básica do gujarati

Tipologia: Manuais, Projetos, Pesquisas

2012
Em oferta
60 Pontos
Discount

Oferta por tempo limitado


Compartilhado em 20/02/2012

gea-z-m-2
gea-z-m-2 🇧🇷

1 documento

1 / 50

Toggle sidebar

Esta página não é visível na pré-visualização

Não perca as partes importantes!

bg1
GUJARATI USANDO STATA
Por: GEÁSI MORAIS
Este manual foi desenvolvido no intuito de auxiliar os estudantes de graduação que estão
cursando a disciplina econometria. Todas as rotinas aqui expostas acompanham os procedimentos do
livro Econometria Básica do autor Damodar N. Gujarati, usando o Software Stata 11.
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e
pf1f
pf20
pf21
pf22
pf23
pf24
pf25
pf26
pf27
pf28
pf29
pf2a
pf2b
pf2c
pf2d
pf2e
pf2f
pf30
pf31
pf32
Discount

Em oferta

Pré-visualização parcial do texto

Baixe Gujarati usando stata e outras Manuais, Projetos, Pesquisas em PDF para Economia, somente na Docsity!

GUJARATI USANDO STATA

Por: GEÁSI MORAIS

Este manual foi desenvolvido no intuito de auxiliar os estudantes de graduação que estão

cursando a disciplina econometria. Todas as rotinas aqui expostas acompanham os procedimentos do

livro Econometria Básica do autor Damodar N. Gujarati, usando o Software Stata 11.

Estimação da função consumo (I.3.3) com dados da tabela I.

reg y x

Source | SS df MS Number of obs = 15 -------------+------------------------------ F( 1, 13) = 8144. Model | 3351406.23 1 3351406.23 Prob > F = 0. Residual | 5349.35306 13 411.488697 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 3356755.58 14 239768.256 Root MSE = 20.


y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | .706408 .0078275 90.25 0.000 .6894978. _cons | - 184.0779 46.26183 - 3.98 0.002 - 284.0205 - 84.


Estimação da regressão 3.6.

A regressão 3.6.1 é estimada com dados da tabela 3.

reg y x Source | SS df MS Number of obs = 10 -------------+------------------------------ F( 1, 8) = 202. Model | 8552.72727 1 8552.72727 Prob > F = 0. Residual | 337 .272727 8 42.1590909 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 8890 9 987.777778 Root MSE = 6.


y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | .5 090909 .0357428 14.24 0.000 .4266678. _cons | 24.45455 6.413817 3.81 0.005 9.664256 39.


A covariância de beta 1 e beta 2 é obtida por meio da matriz de variância e covariância (var-cov):

. mat a = e(V) . mat list a symmetric a[2,2] x _cons x. _cons - .2171832 41.

Onde os elementos da diagonal principal são as variância de beta 1 (variância do termo de

intercepto, a constante) e a variância de beta 2 (a variância do coeficiente de x, o coeficiente angular).

reg y x

Source | SS df MS Number of obs = 10 -------------+------------------------------ F( 1, 8) = 202. Model | 8552.72727 1 8552.72727 Prob > F = 0. Residual | 337.272727 8 42.1590909 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 8890 9 987.777778 Root MSE = 6.


y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | .5090909 .0357428 14.24 0.000 .4266678. _cons | 24.45455 6.413817 3.81 0.005 9.664256 39.

Para testar a hipótese que beta2 é igual a 0.3 basta digitar o comando:

test x=0. ( 1) x =. F( 1, 8) = 34. Prob > F = 0.

Na saída temos que o valor de F=34.22. Porém sabemos a raiz quadra do valor de F numa

regressão simples é igual a t.

Assim t=raiz de 34.22=5.

A tabela ANOVA 5.4 do exemplo consumo-renda pode ser obtida pela mesma saída da

regressão:

reg y x

Source | SS df MS Number of obs = 10 -------------+------------------------------ F( 1, 8) = 202. Model | 8552.72727 1 8552.72727 Prob > F = 0. Residual | 337.272727 8 42.1590909 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 8890 9 987.777778 Root MSE = 6.


y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | .5090909 .0357428 14.24 0.000 .4266678. _cons | 24.45455 6.413817 3.81 0.005 9.664256 39.

Regressão 5.12.2 usando a tabela 7.

reg despalim desptot Source | SS df MS Number of obs = 55 -------------+------------------------------ F( 1, 53) = 31. Model | 139022.82 1 139022.82 Prob > F = 0. Residual | 236893.616 53 4469.69087 R-squared = 0. -------------+------------------------------ Adj R-squared = 0.

Total | 375916.436 54 6961.41549 Root MSE = 66.

despalim | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- desptot | .4368088 .0783226 5.58 0.000 .2797135. _cons | 94.20878 50.85635 1.85 0.070 - 7.796134 196.


No mesmo exemplo é testado a hipótese de que o verdadeiro beta2 seja igual a 0.5:

H0: beta 2=0.

test desptot=0. ( 1) desptot =. F( 1, 53) = 0. Prob > F = 0.

Pelo teste F (t^2) não a hipótese H0 não é rejeitada, ou seja, o verdadeiro beta2 é igual a 0.5.

Logo em seguida é feito o teste Jarque Bera de Normalidade dos termos de erro:

H0: os termos de erro tem distribuição normal:

Para teste esta hipótese é preciso primeiro gerar os resíduos da regressão acima.

O comando para gerar os resíduos é:

predict residuos, r

A palavra resíduos pode ser substituída por qualquer outro nome que você queira dar para o

série de resíduos

O comando para fazer o teste Jarque Bera é:

jb6 residuos Jarque-Bera normality test: .2576 Chi(2). Jarque-Bera test for Ho: normality: (residuos)

O valor da estatística JB é 0.2576 e a probabilidade de obter esse número é aproximadamente

88%, o que nos leva a não rejeitar a hipótese H0 de normalidade dos termos de erro.

No livro também tem a média dos resíduos e outras medidas, a síntese do comando no Stata

para isso é summarize ou simplesmente sum.

sum Variable | Obs Mean Std. Dev. Min Max -------------+-------------------------------------------------------- despalim | 55 373.3455 83.4351 196 610 desptot | 55 639.0364 116.1595 382 801 residuos | 55 1.76e-07 66.23382 -153.7664 171.

desse modo, obtemos o número de observações, a media, o desvio padrão, o mínimo e o

máximo e todas as variáveis que temos.

Depois de gerara as variáveis podemos rodar a regressão:

reg lndespalim lndesptot Source | SS df MS Number of obs = 55 -------------+------------------------------ F( 1, 53) = 37. Model | 1.16070799 1 1.16070799 Prob > F = 0. Residual | 1.65334333 53 .031195157 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 2.81405132 54 .052112062 Root MSE =.


lndespalim | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- lndesptot | .7363261 .1207125 6.10 0.000 .4942075. _cons | 1.154333 .777959 1.48 0.144 - .4060553 2.


Estimação da regressão 6.7.2 com base nos dados da tabela 6.

Do mesmo modo que geramos a variável no modelo log-log, temos que gerar a variável inversa

no modelo reciproco:

gen inverpnb = 1/pnb

onde inverpnb é nome que queremos dar pra variável que será gerada e 1/pnb é a operação que

vai gera a nova variável, ou seja a inversa do PNB.

Depois basta fazer a regressão normalmente:

reg mi inverpnb Source | SS df MS Number of obs = 64 -------------+------------------------------ F( 1, 62) = 52. Model | 166946.595 1 166946.595 Prob > F = 0. Residual | 196731.405 62 3173.08717 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 363678 63 5772.66667 Root MSE = 56.


mi | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- inverpnb | 27273.16 3759.999 7.25 0.000 19757.03 34789. _cons | 81.79436 10.83206 7.55 0.000 60.14138 103.


Estimação da regressão 6.7.5 com base nos dados da tabela 6.

Primeiro você observa que o lado esquerdo da equação, a variável dependente esta em primeira

diferença, assim é preciso criar essa variável no Stata. Porém para criar uma variável em primeira

diferença o Stata precisa saber que estamos trabalhando com uma série temporal. O comando para

declara que estamos trabalhando com uma serie temporal é:

tsset ano, yearly time variable: ano, 1960 to 1998 delta: 1 year

ou basta clicar em Statistic , Time serie, Setup na utilities, Declare dataset to be data-serie

data.

Depois basta selecionar a variável que representa a série temporal, no nosso caso é ano (Time

variable) e escolher a optação anualmente (Yearly) e clicar em OK.

Agora que o Stata sabe que estamos trabalhando com serie temporal temos que criar uma

variável em primeira diferença para a taxa de inflação.

O comando é:

gen deltapi = pi-l1.pi (1 missing value generated)

O lado esquerdo da igualdade nos diz que estamos gerando uma nova variável com nome

deltapi, que pode ser qualquer outro. O lado esquerdo da igualdade nos diz que estamos subtraindo

de pi a sua primeira defasagem, ou seja pi do período anterior, representado por L1.pi, o L1 significa a

primeira defasagem de uma variável, no caso de pi.

Agora que temos a variável em primeira diferença deltapi, podemos rodar a regressão como

temos feito até agora:

reg deltapi un Source | SS df MS Number of obs = 38 -------------+------------------------------ F( 1, 36) = 16. Model | 39.0574389 1 39.0574389 Prob > F = 0. Residual | 84.9123 36 2.358675 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 123.969739 37 3.35053348 Root MSE = 1.


deltapi | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- un | - .6 895286 .1694472 - 4.07 0.000 - 1.033183 -. _cons | 4.178089 1.057162 3.95 0.000 2.034066 6.


Para a regressão 6.7.6 com base nos dados da tabela 6.5, basta gera a variável inversa da taxa

desemprego (inverso de UN):

gen inversoun = 1/un

como já temos a primeira diferença da taxa de inflação, podemos rodar a regressão:

reg deltapi inversoun Source | SS df MS Number of obs = 38 -------------+------------------------------ F( 1, 36) = 9. Model | 25.6226535 1 25.6226535 Prob > F = 0. Residual | 98.3470854 36 2.73186348 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 123.969739 37 3.35053348 Root MSE = 1.

Agora que estamos de posse dos resíduos das duas regressões podemos rodar a regressão 7.3.5:

reg u1 u2, noconst Source | SS df MS Number of obs = 64 -------------+------------------------------ F( 1, 63) = 8. Model | 13847.3245 1 13847.3245 Prob > F = 0. Residual | 106315.625 63 1687.54961 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 120162.95 64 1877.54609 Root MSE = 41.


u1 | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- u2 | - .0056466 .0019712 - 2.86 0.006 - .0095857 -.


Observe que a regressão dos resíduos é sem o intercepto ( noconst ).

Estimação da regressão 7.6.2 com base nos dados da tabela 6.4:

O procedimento para estima uma regressão múltipla é o mesmo para regressão simples, basta

acrescentar a nova variável no modelo:

reg mi pnb taf Source | SS df MS Number of obs = 64 -------------+------------------------------ F( 2, 61) = 73. Model | 257362.373 2 128681.187 Prob > F = 0. Residual | 106315.627 61 1742.87913 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 363678 63 5772.66667 Root MSE = 41.


mi | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- pnb | - .0056466 .0020033 - 2.82 0.006 - .0096524 -. taf | - 2.231586 .2099472 - 10.63 0.000 - 2.651401 - 1. _cons | 263.6416 11.59318 22.74 0.000 240.4596 286.


Estimação das regressões 7.8.8 e 7.8.9 com base nos dados da tabela 7.

. reg y x

Source | SS df MS Number of obs = 11 -------------+------------------------------ F( 1, 9) = 17. Model | .29297476 1 .29297476 Prob > F = 0. Residual | .1490797 9 .016564411 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | .44205446 10 .044205446 Root MSE =.


y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | - .479529 .1140218 - 4.21 0.002 - .7374642 -. _cons | 2.691124 .1216225 22.13 0.000 2.415995 2.


. gen lny = ln(y) . gen lnx = ln(x) . reg lny lnx Source | SS df MS Number of obs = 11 -------------+------------------------------ F( 1, 9) = 26. Model | .066054476 1 .066054476 Prob > F = 0. Residual | .02263302 9 .00251478 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | .088687496 10 .00886875 Root MSE =.


lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] 

-------------+---------------------------------------------------------------- lnx | - .2 530461 .049374 - 5.13 0.001 - .3647379 -. _cons | .7774176 .0152421 51.00 0.000 .7429375.


Estimação da regressão 7.9.4 com base nos dados da tabela 7.

gen lny = ln(y)

. gen lnx2 = ln(x2) . gen lnx3 = ln(x3) . reg lny lnx2 lnx Source | SS df MS Number of obs = 15 -------------+------------------------------ F( 2, 12) = 48. Model | .538038027 2 .269019013 Prob > F = 0. Residual | .067158351 12 .005596529 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | .605196377 14 .043228313 Root MSE =.


lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] 

-------------+---------------------------------------------------------------- lnx2 | 1.498767 .5398018 2.78 0.017 .3226405 2. lnx3 | .4898585 .1020435 4.80 0.000 .2675249. _cons | - 3. 338459 2.449504 - 1.36 0.198 - 8.675471 1.


Estimação da regressão 7.10.6 com base nos dados da tabela 7.

Para estimamos essa regressão temos primeiro que gerar as variáveis x

2

e x

3

. No Stata o

procedimento é:

. gen x2 = x^ . gen x3 = x^

One x2 e x3 são os nomes das variáveis x^2 e x^3 , que pode ser qualquer outro.

Depois de gerada as variáveis podemos rodar o modelo normalmente:

A tabela ANOVA 8.3 também pode ser vista na saída da regressão:

reg mi pnb taf Source | SS df MS Number of obs = 64 -------------+------------------------------ F( 2, 61) = 73. Model | 257362.373 2 128681.187 Prob > F = 0. Residual | 106 315.627 61 1742.87913 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 363678 63 5772.66667 Root MSE = 41.


mi | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- pnb | -.0056466 .0020033 -2.82 0.006 -.0096524 -. taf | -2.231586 .2099472 -10.63 0.000 -2.651401 -1. _cons | 263.6416 11.59318 22.74 0.000 240.4596 286.


Fazendo o teste de igualdade de coeficiente da equação 8.6.

Primeiro, temos que fazer a regressão 7.10.6 e obter os betas, as variâncias dos betas e a

covariância dos betas.

. gen x2=x^ . gen x3=x^ . reg y x x2 x Source | SS df MS Number of obs = 10 -------------+------------------------------ F( 3, 6) = 1202. Model | 38918.1562 3 12972.7187 Prob > F = 0. Residual | 64.7438228 6 10.7906371 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 38982.9 9 4331.43333 Root MSE = 3.


y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 

-------------+---------------------------------------------------------------- x | 63.47766 4.778607 13.28 0.000 51.78483 75. x2 | - 12.96154 .9856646 - 13.15 0.000 - 15.37337 - 10. x3 | .9395882 .0591056 15.90 0.000 .794962 1. _cons | 141.7667 6.375322 22.24 0.000 126.1668 157.


A matriz de variância e covariância é dada por:

mat a = e(V) mat list a symmetric a[4,4] x x2 x3 _cons x 22. x2 -4.6113834. x3 .26585324 - .05764229. _cons -28.475292 5.3953186 -.29973992 40.

Observe que a diagonal principal da matriz é a variância dos betas e o restante as covariâncias.

Desse modo basta pegar os valores e substituir na formula do teste t de igualdade de coeficiente. Ou

fazer o teste diretamente no Stata. O comando é:

test x2=x ( 1) x2 - x3 = 0 F( 1, 6) = 177. Prob > F = 0.

Como o valor da probabilidade é igual a zero, isso nos leva a rejeitar a hipótese nula de

igualdade entre os coeficiente de x^2 e x^3. Observe que o valor F é igual a t^2.

Teste F da equação 8.7.

Esse teste é para escolha entre duas regressões: uma com restrição (8.7.24) e outra

irrestrita(8.7.23). observe que a equação com restrição é igual a equação sem restrição quando os

coeficiente de lnx4 e lnx5 são iguais a zero. Desse modo basta fazer um teste que nos diga se lnx4 e lnx

é igual a zero. Se for igual a zero é óbvio que o modelo restrito é melhor e se for diferente de zero o

modelo irrestrito é melhor.

Desse modo, primeiro rodamos a regressão completa.

. gen lny=ln(y) . gen lnx2=ln(x2) . gen lnx3=ln(x3) . gen lnx4=ln(x4) . gen lnx5=ln(x5) . reg lny lnx2 lnx3 lnx4 lnx Source | SS df MS Number of obs = 23 -------------+------------------------------ F( 4, 18) = 249. Model | .761050242 4 .190262561 Prob > F = 0. Residual | .013702848 18 .000761269 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | .77475309 22 .03521605 Root MSE =.


lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] 

-------------+---------------------------------------------------------------- lnx2 | .3425546 .0832663 4.11 0.001 .1676186. lnx3 | -.5045934 .1108943 -4.55 0.000 -.7375737 -. lnx4 | .1485461 .0996726 1.49 0.153 -.0608583. lnx5 | .0911056 .1007164 0.90 0.378 -.1204917. _cons | 2.189793 .1557149 14.06 0.000 1.862648 2.


Agora, fazemos o teste para verificar se o coeficiente de lnx4 e lnx5 é igual a zero.

A hipótese nula é:

H0: beta de lnx4= beta de lnx5=

test lnx4=lnx5= ( 1) lnx4 - lnx5 = 0 ( 2) lnx4 = 0 F( 2, 18) = 1. Prob > F = 0.

II. Estimação do modelo log-log e obtenção dos valores estimados de LnY (lnf). gen lny=ln(y) gen lnx2=ln(x2) gen lnx3=ln(x3) reg lny lnx2 lnx Source | SS df MS Number of obs = 16 -------------+------------------------------ F( 2, 13) = 17. Model | 1.0300302 2 .515015098 Prob > F = 0. Residual | .382568648 13 .029428358 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 1.41259884 15 .094173256 Root MSE =.


lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- lnx2 | -1.760718 .298206 -5.90 0.000 -2.404953 -1. lnx3 | 1.33978 .5273242 2.54 0.025 .2005655 2. _cons | 9.227759 .5683903 16.23 0.000 7.999826 10.


Para obter o lny estimado o procedimento é o mesmo que no passo anterior, a diferença vai ser apenas o nome que vamos dar para a variável. No Stata: predict lnf, xb observe novamente que foi criada uma nova coluna na planilha do Stata para os lny estimados. III. Calculo de Z1 = (Lnyf - lnf). Para calcularmos z1, temos primeiro que tira o logaritmo da variável yf. No Stata: gen lnyf = ln(yf) Agora podemos calcular z1: gen z1= lnyf-lnf

IV. Regredimos o modelo linear acrescentando a variável Z1. Rejeita-se H0 se o coeficiente de Z1 for estatisticamente significativo segundo o teste t habitual. Como neste caso t não é significativo não rejeitamos o modelo linear como sendo o melhor.

. reg y x2 x3 z Source | SS df MS Number of obs = 16 -------------+------------------------------ F( 3, 12) = 13. Model | 48240240.9 3 16080080.3 Prob > F = 0. Residual | 14356115.1 12 1196342.92 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 62596356 15 4173090.4 Root MSE = 1093.


y | Coef. Std. Err. t P>|t| [95% Conf. Interval] 

-------------+---------------------------------------------------------------- x2 | -3783.062 597.286 -6.33 0.000 -5084.437 -2481. x3 | 2817.715 993.3304 2.84 0.015 653.4343 4981. z1 | 85.27798 4116.827 0.02 0.984 - 8884.518 9055. _cons | 9727.57 3023.018 3.22 0.007 3140.978 16314.


V. Calculo de Z2 = (antilog de lnf - yf). Antes de gera Z2 temos que calcular o antilogaritmo de lnf. O comando no Stata é: gen antilnf=exp(lnf) onde **antilnf** é o nome da variável que vamos criar, pode ser qualquer outro. E o lado direito é operação que queremos realizado, ou seja, o antilogaritmo da variável lnf. Agora podemos calcular Z2: gen z2= antilnf - yf VI. Regressão log-log acrescentando a variável Z2. Rejeita-se H1 se o 

coeficiente Z2 for estatisticamente significativo segundo o teste t. Como Z2 não é significativo a nível de 10%, não rejeitamos o modelo log-log como sendo o melhor. Porém se consideramos o nível de 12% podemos rejeitar a hipótese H1, ou seja, rejeitamos o modelo log-log é melhor. reg lny lnx2 lnx3 z

Para estimamos podemos rodar essa regressão, primeiro temos que gera a variável DX, que é

simplesmente a multiplicação da variável dummy pela variável X. No Stata:

gen dx=d*x

Agora podemos fazer a regressão como fazemos normalmente:

reg y d x dx Source | SS df MS Number of obs = 26 -------------+------------------------------ F( 3, 22) = 54. Model | 88079.8327 3 29359.9442 Prob > F = 0. Residual | 11790.2539 22 535.920634 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 99870.0867 25 3994.80347 Root MSE = 23.


y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- d | 152.4786 33.08237 4.61 0.000 83.86992 221. x | .0803319 .0144968 5.54 0.000 .0502673. dx | -.0654694 .0159824 -4.10 0.000 -.098615 -. _cons | 1.016115 20.16483 0.05 0.960 -40.80319 42.


Estimação das regressões 9.7.2 e 9.7.3 com os dados da tabela 9.

reg y d1 d2 d3 d4, noconst Source | SS df MS Number of obs = 32 -------------+------------------------------ F( 4, 28) = 518. Model | 59654886.6 4 14913721.7 Prob > F = 0. Residual | 806142.375 28 28790.7991 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 60461029 32 1889407.16 Root MSE = 169.


y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- d1 | 1222.125 59.99041 20.37 0.000 1099.24 1345. d2 | 1467.5 59.99041 24.46 0.000 1344.615 1590. d3 | 1569.75 59.99041 26.17 0 .000 1446.865 1692. d4 | 1160 59.99041 19.34 0.000 1037.115 1282.


Observe que no modelo sem intercepto o R^2 é o R^2 bruto, para modelo que passa pela origem e

que não pode ser comparado com o R^2 de modelos com intercepto.

reg y d2 d3 d Source | SS df MS Number of obs = 32 -------------+------------------------------ F( 3, 28) = 10. Model | 915635.844 3 305211.948 Prob > F = 0. Residual | 806142.375 28 28790.7991 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 1721778.22 31 55541.2329 Root MSE = 169.


y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- d2 | 245.375 84.83926 2.89 0.007 71.58966 419. d3 | 347.625 84.83926 4.10 0.000 173.8397 521. d4 | - 62.125 84.83926 - 0.73 0.470 - 235.9103 111. _cons | 1222.125 59.99041 20.37 0.000 1099.24 1345.


Estimação da regressão 9.8.4 com os dados da tabela 9.

Primeiro temos que gerar (Xi – Xi). Sabendo que Xi=5.500. No stata:

gen x2=x- 5500

onde x2 é o nome da nova variável que representa essa diferença. Agora temos que gerar a

variável (Xi – Xi)Di=x2Di. No Stata, tem-se:

gen x2d=x2*d

onde x2d e a variável que queremos ((Xi – Xi*)Di)

Agora basta rodar a regressão normalmente:

reg y x x2d Source | SS df MS Number of obs = 10 -------------+------------------------------ F( 2, 7) = 129. Model | 8832644.9 2 4416322.45 Prob > F = 0. Residual | 238521.502 7 34074.5002 R-squared = 0. -------------+------------------------------ Adj R-squared = 0. Total | 9071166.4 9 1007907.38 Root MSE = 184.


y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | .2791258 .0460081 6.07 0.001 .1703338. x2d | .0945 .0825524 1.14 0.290 - .1007054. _cons | - 145.7167 176.734 1 - 0.82 0.437 - 563.6265 272.


MULTICOLINEARIDADE.