Change search
CiteExportLink to record
Permanent link

Direct link
Cite
Citation style
  • apa
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Other style
More styles
Language
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Other locale
More languages
Output format
  • html
  • text
  • asciidoc
  • rtf
Misspecification and inference: A review and case studies
Umeå University, Faculty of Social Sciences, Umeå School of Business and Economics (USBE), Statistics.
2015 (English)Independent thesis Advanced level (degree of Master (One Year)), 10 credits / 15 HE creditsStudent thesisAlternative title
Felspecicering och inferens : En genomgång och fallstudier (Swedish)
Abstract [en]

When conducting inference we usually have to make some assumptions. A common assumption is that the parametric model which describes the behavior of the investigated random phenomena is correctly specied. If not, some of the inferential methods does not provide valid inference, e.g. the method of maximum likelihood. This thesis investigates and presents some of the results regarding misspecied parametric models to illustrate the consequences of misspecication and how the parameter estimates are affected. The main question investigated is wether we still can learn something about the true parameter even though the model is misspecied. An important result is that the quasi-maximum likelihood estimate of a misspecied estimation model converges almost surely towards the parameter minimizing the distance between the true model and the estimation model. Using simulations, it is illustrated how this estimator in certain situations converges almost surely towards the true parameter times a scalar. This result also seems to hold for a situation not covered by any theorems. Furthermore, a general class of estimators called M-estimators is presented for the theoretic framework of misspecied models. An example is given when the theory of M-estimators come to use under model misspecication.

Abstract [sv]

När man vill dra slutsatser från data så måste man i regel göra vissa antaganden. Ett vanligt antagande är att den parametriska modellen som beskriver beteendet hos det undersökta slumpmässiga fenomenet är korrekt specicerad. Om detta inte är fallet så kommer vissa inferens-metoder inte att kunna användas, exempelvis maximum likelihood-metoden. Den här uppsatsen undersöker och presenterar några av resultaten för felspecicerade parametriska modeller för att illustrera konsekvenserna av felspecicering och hur parameterskattningarna påverkas. En huvudfråga som undersöks är huruvida det fortfarande går att lära sig något om den sanna parametern även när modellen är felspecicerad. Ett viktigt resultat som presenteras är att den så kallade quasi-maximum likelihood-skattningen från en felspeciceradmodell konvergerar nästan säkert mot den parameter som minimerar avståndet mellan densanna modellen och skattningsmodellen. Det visas hur denna parameter i vissa situationer konvergerar mot den sanna parametern multiplicerat med en skalär. Detta resultat illustreras också för en situation som inte täcks av något teorem. Dessutom presenteras en generell klass av estimatorer som kallas M-estimatorer. Dessa används för att utvidga teorin kring felspecicerade modeller och ett exempel presenteras där teorin för M-estimatorer nyttjas.

Place, publisher, year, edition, pages
2015.
National Category
Probability Theory and Statistics
Identifiers
URN: urn:nbn:se:umu:diva-105135OAI: oai:DiVA.org:umu-105135DiVA: diva2:823504
Available from: 2015-06-18 Created: 2015-06-18 Last updated: 2015-06-22Bibliographically approved

Open Access in DiVA

fulltext(720 kB)