scholarly journals Matrix rank and inertia formulas in the analysis of general linear models

2017 ◽  
Vol 15 (1) ◽  
pp. 126-150 ◽  
Author(s):  
Yongge Tian

Abstract Matrix mathematics provides a powerful tool set for addressing statistical problems, in particular, the theory of matrix ranks and inertias has been developed as effective methodology of simplifying various complicated matrix expressions, and establishing equalities and inequalities occurred in statistical analysis. This paper describes how to establish exact formulas for calculating ranks and inertias of covariances of predictors and estimators of parameter spaces in general linear models (GLMs), and how to use the formulas in statistical analysis of GLMs. We first derive analytical expressions of best linear unbiased predictors/best linear unbiased estimators (BLUPs/BLUEs) of all unknown parameters in the model by solving a constrained quadratic matrix-valued function optimization problem, and present some well-known results on ordinary least-squares predictors/ordinary least-squares estimators (OLSPs/OLSEs). We then establish some fundamental rank and inertia formulas for covariance matrices related to BLUPs/BLUEs and OLSPs/OLSEs, and use the formulas to characterize a variety of equalities and inequalities for covariance matrices of BLUPs/BLUEs and OLSPs/OLSEs. As applications, we use these equalities and inequalities in the comparison of the covariance matrices of BLUPs/BLUEs and OLSPs/OLSEs. The work on the formulations of BLUPs/BLUEs and OLSPs/OLSEs, and their covariance matrices under GLMs provides direct access, as a standard example, to a very simple algebraic treatment of predictors and estimators in linear regression analysis, which leads a deep insight into the linear nature of GLMs and gives an efficient way of summarizing the results.

1995 ◽  
Vol 52 (2) ◽  
pp. 210-220 ◽  
Author(s):  
A.F. Iemma

A interpretação das hipóteses testadas através da análise de variância de dados agropecuários balanceados pode ser feita, em geral, sem grandes problemas, mormente para experimentos bem planejados e bem conduzidos. Se, no entanto, os dados são desbalanceados e apresentam caselas vazias, então a interpretação das hipóteses testadas através das somas de quadrados fornecidas pelos pacotes estatísticos disponíveis pode ser extremamente difícil para os estatísticos e praticamente impossível para os profissionais das ciências aplicadas, usuários de pacotes estatísticos. Neste estudo, discute-se a interpretação das hipóteses mais comumente testadas através do procedimento GLM (General Linear Models) do sistema SAS (Statistical Analysis System), visando alertar os usuários sobre os problemas inerentes à opção por aquela que melhor espelha os objetivos de suas pesquisas.


2006 ◽  
Vol 30 (2) ◽  
pp. 234-242
Author(s):  
Eliana Mara Manso ◽  
Augusto Ramalho de Morais

Na pesquisa agropecuária é comum o estudo de vários fatores e freqüentemente ocorrem perdas de observações, constituindo assim um experimento desbalanceado. É necessário conhecer as hipóteses testadas através dos sistemas estatísticos e ocorrendo caselas vazias a interpretação é ainda mais complexa, pois geralmente, as hipóteses sobre os efeitos principais de um dos fatores contêm os efeitos principais de outros fatores e os efeitos de interações. Adotando o modelo superparametrizado, com este trabalho, objetivou-se desenvolver esquemas de análises de variâncias de dados desbalanceados e/ou com caselas vazias, identificar e interpretar as hipóteses associadas às somas de quadrados através do procedimento General Linear Models (GLM) do Statistical Analysis System (SAS), que provêm quatro tipos de somas de quadrados. Foram analisados dois casos distintos, utilizando dados referentes ao peso comercial de cenoura, provenientes de experimento inteiramente ao acaso, tendo como fatores cultivares e fases da lua como épocas de plantio. Em face aos resultados obtidos, verificou-se que, quando os dados são desbalanceados, as funções estimáveis de um fator envolvem os parâmetros relativos ao fator e os componentes das interações nas quais o fator está presente; as somas de quadrados do tipo III equivalentes as do tipo IV e a ordenação dos fatores principais não afeta as hipóteses do tipo I. Entretanto, quando ocorreram caselas vazias no modelo com dois fatores, os quatro tipos de somas de quadrados para o fator principal de entrada foram diferentes e; a ordenação é fundamental para obtenção das hipóteses do tipo I. Quando ocorrem perdas de parcelas, a identificação das funções estimáveis é complexa e as hipóteses ficam de difícil interpretação. Nas funções estimáveis de interações ocorrem parâmetros da própria interação. Diferenças entre níveis do fator A somente podem ser estimados na presença de efeitos médios do fator B e da interação.


2016 ◽  
Vol 4 (1) ◽  
Author(s):  
Yongge Tian ◽  
Bo Jiang

AbstractLeast-Squares Solution (LSS) of a linear matrix equation and Ordinary Least-Squares Estimator (OLSE) of unknown parameters in a general linear model are two standard algebraical methods in computational mathematics and regression analysis. Assume that a symmetric quadratic matrix-valued function Φ(Z) = Q − ZPZ0 is given, where Z is taken as the LSS of the linear matrix equation AZ = B. In this paper, we establish a group of formulas for calculating maximum and minimum ranks and inertias of Φ(Z) subject to the LSS of AZ = B, and derive many quadratic matrix equalities and inequalities for LSSs from the rank and inertia formulas. This work is motivated by some inference problems on OLSEs under general linear models, while the results obtained can be applied to characterize many algebraical and statistical properties of the OLSEs.


2016 ◽  
Vol 4 (1) ◽  
Author(s):  
Shuangzhe Liu ◽  
Tiefeng Ma ◽  
Yonghui Liu

AbstractIn this work, we consider the general linear model or its variants with the ordinary least squares, generalised least squares or restricted least squares estimators of the regression coefficients and variance. We propose a newly unified set of definitions for local sensitivity for both situations, one for the estimators of the regression coefficients, and the other for the estimators of the variance. Based on these definitions, we present the estimators’ sensitivity results.We include brief remarks on possible links of these definitions and sensitivity results to local influence and other existing results.


Sign in / Sign up

Export Citation Format

Share Document