Метод максимального правдоподобия в моделях регрессии

Учебник содержит систематическое изложение основ эконометрики и написан на основе лекций, которые авторы в течение ряда лет читали в Российской экономической школе и Высшей школе экономики. Подробно изучаются линейные регрессионные модели (метод наименьших квадратов, проверка гипотез, гетероскедастичность, автокорреляция ошибок, спецификация модели). Отдельные главы посвящены системам одновременных уравнении, методу максимального правдоподобия в моделях регрессии, моделям с дискретными и ограниченными зависимыми переменными.  [c.2]


Метод максимального правдоподобия в моделях регрессии  [c.244]

Если случайные величины Е, имеют нормальное распределение, то уравнение (8.34) может быть оценено методом максимального правдоподобия (см. 2.7). Так как в случае нормального распределения ошибок регрессии оценки максимального правдоподобия совпадают с оценками метода наименьших квадратов, на практике применение этого метода к модели (8.15) сводится к нелинейной задаче минимизации по а, р, у и Р функции  [c.205]

Глава 11 содержит краткое описание общего метода максимального правдоподобия и достаточно подробно рассказывает об его использовании в моделях регрессии. Мы не ставили перед собой цель дать полное и систематическое изложение этого метода, который по традиции относится к теоретической и прикладной статистике. Более подробно о нем можно прочесть, например, в книгах (Рао, 1968), (Крамер, 1975), (Айвазян и др., 1983). В то же время мы выделили этот материал в отдельную главу, а не вынесли его в приложение по теории вероятностей и математической статистике, поскольку в двух последующих главах этот метод активно используется, и для удобства восприятия материала целесообразно прочесть о методе максимального правдоподобия непосредственно перед этими главами.  [c.18]


Пусть SML = Y et/ n и OLS — ] et/ (n — 1 — оценки методов максимального правдоподобия и наименьших квадратов для дисперсии ошибок <т2 в классической модели парной регрессии Yt =  [c.62]

Данная глава несколько отличается от других глав. Разделы 10.1-10.4 фактически содержат справочный материал по методу максимального правдоподобия, широко применяемому в математической статистике. Подробное изложение этого материала можно найти, например, в (Айвазян (1983), Крамер (1975), Рао (1968)). Раздел 10.5 во многом повторяет описанные кратко в разделах 2.7, 5.3 и приложении МС (п. 7) способы применения этого метода к моделям парной и множественной регрессии. Причина, по которой мы поместили этот материал не в приложении МС, а здесь, состоит в следующем. Первое, метод максимального правдоподобия является традиционно трудным для студентов разделом курса математической статистики, и его, по нашему мнению, следует повторить в курсе эконометрики, включающем в себя темы временных рядов и дискретных зависимых переменных, в которых этот метод интенсивно используется. Второе, удобство читателя, для которого все необходимые факты по методу максимального правдоподобия собраны в одном месте книги.  [c.244]

Первое и второе издания нашей книги были выпущены общим тиражом 10 000 экз. и довольно быстро разошлись. Это послужило одной (но не главной) из причин написания третьего издания. Основным мотивом продолжения книги явилось желание расширить тематику начального курса эконометрики, включив те разделы, которые изучаются в магистерских программах большинства экономических вузов. Новыми являются глава И1 Метод максимального правдоподобия в моделях регрессии , глава 12 Временные ряды и глава 13 Дискретные зависимые переменные и цензурированные выборки .  [c.18]


Модели AR H и GAR H удовлетворяют всем условиям классической модели, и метод наименьших квадратов позволяет получить оптимальные линейные оценки. В то же время можно получить более эффективные нелинейные оценки методом максимального правдоподобия. В отличие от модели с независимыми нормально распределенными ошибками регрессии в AR H-модели оценки максимального правдоподобия отличаются от оценок, полученных методом наименьших квадратов.  [c.217]

В скобках указаны стандартные ошибки параметров уравнения регрессии. Применение метода инструментальных переменных привело к статистической незначимости параметра С[ = 0,109 при переменной yf . Это произошло ввиду высокой мультиколлинеарности факторов, иyt v. Несмотря на то что результаты, полученные обычным МНК, на первый взгляд лучше, чем результаты применения метода инструментальных переменных, результатам обычного МНК вряд ли можно доверять вследствие нарушения в данной модели его предпосылок. Поскольку ни один из методов не привел к получению достоверных результатов расчетов параметров, следует перейти к получению оценок параметров данной модели авторегрессии методом максимального правдоподобия.  [c.328]

Здесь ut = t — Ae -i- Уравнение (11.9) линейно по комбинациям параметров, через которые эти параметры можно выразить. Однако (11.9) содержит лагированную эндогенную переменную и ошибки, не удовлетворяющие условиям классической модели линейной регрессии. Поэтому можно показать, что МНК-оценки коэффициентов уравнения являются несостоятельными. Для получения состоятельных оценок можно применить метод инструментальных переменных (п. 8.1), взяв, например, Xt— в качестве инструмента для yt-i, или воспользоваться методом максимального правдоподобия (глава 10).  [c.268]

Смотреть страницы где упоминается термин Метод максимального правдоподобия в моделях регрессии

: [c.395]