Lada Priora — обзор, цены, видео, технические характеристики Лада Приора
Lada Priora – это семейство легковых автомобилей, выпускаемых компанией «АвтоВАЗ». Модель имеет заводской индекс ВАЗ-2170. Производство машин началось в 2007 году. В марте 2007 года производитель выпустил более тысячи единиц Lada Priora в кузове седан. В апреле автомобиль поступил в открытую продажу. Практически через год началось производство авто в кузове хэтчбек. А в октябре 2008 года на моторшоу в Краснодаре дебютировала модификация с кузовом универсал. Выпуск этой модели начался в мае 2009 года. Кроме обозначенных версий машин АвтоВАЗ также производит Lada Priora в кузове купе, но объемы выпуска этой модели достаточно малы. Еще одна мелкосерийная модель – Lada Priora Premier. Этот автомобиль – удлиненная на 17,5 сантиметров версия седана. Он производится на тольяттинском заводе ЗАО «Супер-Авто» с 2008 года. Модель комплектуется 1,8-литровым мотором мощностью в 100 лошадиных сил. На основе купе планировалось создать машину с кузовом кабриолет. В начале 2009 года семейство Lada Priora полностью вытеснило с производства серию Lada 110. На освобожденных конвейерах было запущено производство универсалов. Начать выпуск следующего поколения Lada Priora производитель планирует в 2016 году.
Автомобиль Lada Priora Coupe, имеющий заводской индекс ВАЗ-2172, представляет собой мелкосерийную модель АвтоВАЗа выпускающуюся в трехдверном кузове хэтчбек. Машина сконструирована на платформе Lada Priora. Авто должно заменить модель ВАЗ-21123. Производство Priora в кузове трехдверный хэтчбек началось в 2010 году. Оригинальная Priora в кузове седан производится с 2007 года. Первый пятидверный хэтчбек сошел с конвейера лишь через год. Для нового автомобиля конструкторы разработали более 150 оригинальных элементов, в том числе детали каркаса, передние двери, стекла, диски и так далее. Машина получила складные спинки передних сидений, а сами кресла были усилены. Для выпуска автомобиля было задействовано опытно-промышленное производство АвтоВАЗа. Ранее здесь производился предшественник Priora Coupe, от которого машина отличается более удобным салоном, более мощным двигателем и расширенной комплектацией. Перед запуском в серийное производство Lada Priora Сoupe была подвергнута испытаниями. Сообщается, что показатели краш-тестов полностью удовлетворяют нормативам, принятым в России. На основе данной модели производитель планировал создать кабриолет.
Lada Priora — цены и характеристики, фотографии и обзоры
Конструктивные особенности. Лада Приора является глубокой модернизацией ВАЗ-2110, но при этом существенных изменений в конструкцию шасси разработчиками внесено не было. По этой причине автомобиль получил устаревший вариант подвески (которая хотя и хорошо адаптирована к качеству российских дорог, но не способна обеспечить должный уровень комфорта), выверенную управляемость и хорошую курсовую устойчивость.
Конструктивные недостатки. Lada Priora не отличается высоким качеством сборки, из-за чего отмечается низкий уровень точности подгонки кузовных элементов, что повышает уровень шума в салоне, а также способствует воздействию воздушных потоков на устойчивость автомобиля. Низкое качество сборки отмечается и в салоне «Приоры», из-за чего очень быстро элементы отделки начинают «гулять», наполняя салон посторонними звуками. Кроме того, габаритные характеристики автомобиля и параметры настройки его подвески способствуют возникновению эффекта парусности кузова при маневрировании в условиях бокового ветра, что приводит к излишним кренам и снижению управляемости.
Самые слабые места. В список наиболее часто ломающихся узлов и агрегатов автомобилей семейства «Priora» специалисты включают:
- опорные подшипники,
- ШРУСы,
- амортизаторы,
- сайлентблоки передней подвески,
- передние ступицы,
- помпу,
- компоненты бортовой электросистемы,
- штатную сигнализацию,
- стеклоподъемники.
Коррозия кузовных элементов, в первую очередь, появляется на капоте и крышке багажника (в местах установки декоративных накладок).
Двигатель вибрирует на холостом ходу. Как правило, причиной вибрации двигателя является прослабление подушек двигателя. Для устранения дефекта необходимо проверить качество затяжки крепежных болтов и уровень износа подушек. Если подушки повреждены, то потребуется их замена.
Плавают обороты двигателя.
Чаще всего причина проблемы кроется в некорректной работе дроссельного узла из-за засорения его полостей. Для нормализации работы двигателя в этом случае необходимо снять дроссельный узел и провести его очистку.Двигатель «троит». Троение мотора на Ладе Приоре, как правило, вызывается подсосом воздуха через изношенные резиновые заглушки, установленные в левом верхнем углу двигателя. Для устранения проблемы необходимо заменить заглушки.
Неустойчивая работа двигателя. Основная причина данной проблемы – снижение давления в топливной рампе, вызванное засорением сетчатого фильтра бензонасоса. Для решения проблемы необходимо снять бензонасос и провести его очистку.
Также отметим, что причинами неустойчивой работы мотора могут быть подсос воздуха через шланги двигателя, износ ремня ГРМ или износ компонентов ЦПГ.
Стартер не выключается после пуска мотора. Чаще всего данный дефект проявляется в зимнее время и вызывается застыванием смазки во втягивающем реле, что приводит к его залипанию. В летнее время залипание может спровоцировать попавшая грязь и влага. Для устранения дефекта необходимо разобрать втягивающее реле, очистить его компоненты от грязи и нанести морозоустойчивую смазку.
Затрудненный ход рычага КПП или повышенная шумность работы КПП. Данная проблема считается конструктивной особенностью КПП ВАЗовской разработки. Как правило, чаще всего проблема проявляется в зимнее время, а для снижения её негативного воздействия на работоспособность КПП специалисты рекомендуют заменить заводское масло на синтетическое с параметрами не ниже 75w90. Кроме того, длительное использование заводского масла в КПП способствует ускоренному механическому износу подвижных компонентов коробки, что чревато появлением стружки, сколов и выходом КПП из строя.
Стук передних стоек. Данная проблема не считается дефектом, а является конструктивной особенностью стоек марки СААЗ, используемых при сборке автомобиля. Для устранения стучащих звуков потребуется замена стоек на более качественные аналоги от других производителей.
Стук с правой стороны подкапотного пространства. Если в работе подвески проблем не наблюдается, то причиной возникновения постороннего стука может стать бачок гидроусилителя руля, который, из-за ослабления крепления, опускается вниз и стучит о защиту колеса.
Печка дует некорректно. Проблемы в работе отопителя, как правило, связаны с выходом из строя моторедукторов, управляющих переключением заслонок. Для устранения проблемы необходимо заменить вышедшие из строя моторедукторы. Также следует проверить подвижность самих заслонок, которые могут подклинивать из-за попавшей грязи.
Быстрый выход из строя АКБ. На некоторых автомобилях Lada Priora АКБ служит один–полтора года. Данный дефект вызван некорректной работой регулятора напряжения. Для решения проблемы необходимо заменить регулятор.
Запотевание задних фонарей после дождя или мойки. Как правило, задние фонари начинают запотевать из-за засорения вентиляционных отверстий, имеющихся в их корпусе. Для решения проблемы необходимо очистить вентиляционные отверстия от попавшей в них грязи.
Ложное срабатывание сигнализации (а так же отказ открывать или закрывать двери). Данные симптомы указывают на выход из строя штатной сигнализации. Для устранения проблемы потребуется полная замена системы сигнализации.
Стуки и скрипы в салоне. Практически на всех автомобилях семейства «Priora» со временем появляются посторонние звуки в салоне. Для снижения уровня шума и устранения проблемы необходимо проклеить все съемные элементы отделки салона шумопоглащающими материалами или закрепить их 2-сторонним скотчем. Кроме того, рекомендуется смазать силиконовой смазкой дверные петли и замки, места крепления и салазки передних кресел.
Скопление воды в багажнике. Довольно часто после дождя или мойки в багажнике «Приоры» можно найти лужицы, образующиеся в нишах под задними фонарями. Для удаления воды необходимо вытащить резиновые заглушки, имеющиеся на дне данных водосборных ниш.
Моторное масло для Lada Priora – какое масло заливать в двигатель Lada Priora?
Автомобиль Lada Priora был запущен в производство и продажу в 2007 году и представлял собой модернизированную версию моделей ВАЗ 2110 – 2112. С марта 2007 года выпускались Priora в кузове седан, позднее появились модификации в виде 5-дверных хетчбэков и универсалов. Кроме того, в 2010 – 2015 годах малыми сериями производились автомобили модели с кузовом 3-дверный хетчбэк. На Priora устанавливают бензиновые двигатели объемом 1.6 литра, 8-клапанный 21116 мощностью 81 – 90 л.с. или 16-клапанный 21126 мощностью 98 – 106 л.с. и 5-ступенчатую механическую коробку передач. Также покупателям доступны автомобили, модифицированные компанией «Супер-авто», с 1.8 – литровым 120-сильным мотором. В 2013 году Priora подверглась рестайлингу, модель получила обновленную внешность, дневные ходовые огни и опциональную систему курсовой устойчивости ESC. В 2014 году началось производство автомобилей с роботизированной 5-ступенчатой трансмиссией собственной разработки АвтоВАЗа. Какое масло заливать в двигатель Lada Priora зависит от условий использования автомобиля.
QUARTZ 9000 5W40
В качестве универсального моторного масла для Lada Priora специалисты TotalEnergies рекомендуют созданное по синтетической технологии масло QUARTZ 9000 5W40. Благодаря отличным противоизносным характеристикам оно предохраняет двигатель в любых условиях эксплуатации, в том числе в режимах повышенной нагрузки, а специальные присадки защищают детали мотора от отложений и поддерживают его в чистоте. Антиокислительные свойства QUARTZ 9000 5W40 гарантируют стабильность его свойств в течение всего периода между заменами масла в Lada Priora, а высокая текучесть облегчает пуск двигателя при низких температурах. Это масло отвечает стандартам качества ACEA A3/B4 и API SN и может использоваться в Priora с 8- и 16- клапанными моторами.
QUARTZ 9000 5W40
QUARTZ 7000 10W40
Моторное масло на синтетической основе QUARTZ 7000 10W40 обладает отличными смазывающими свойствами и защищает мотор от преждевременного износа в сложных для него режимах эксплуатации. Если выбирать, какое масло заливать в Lada Priora с изношенным двигателем, то эта смазка подойдут лучше всего, благодаря повышенному уровню вязкости и исключительным антиокислительным свойствам. QUARTZ 7000 10W40 соответствует международным требованиям ACEA A3/B4 и API SN/CF и может использоваться как масло для Lada Priora в случаях, когда требуется данный уровень свойств, в том числе, для моделей на неэтилированном бензине и сжиженном газе с 16-клапанными двигателями.
QUARTZ 7000 10W40
Подберите смазочные материалы именно для Вашей Lada Priora онлайн.
АвтоВАЗ объяснил прекращение выпуска Lada Priora :: Бизнес :: РБК
Фото: Андрей Холмов / РИА Новости
Выпуск автомобилей Lada Priora в Тольятти будет прекращен в конце июля. Об этом говорится в сообщении компании, поступившем в РБК.
По словам исполнительного вице-президента по продажам и маркетингу АвтоВАЗа Яна Птачека, в последние три года из-за выпуска нового поколения автомобилей, таких как Lada Vesta, Lada XRAY, покупатели продукции компании воспринимают бренд иначе. «А это, в свою очередь, ведет к снижению спроса на Lada Priora», — пояснил он.
Lada Priora была хорошим автомобилем «для своего времени», выпуск этой модели позволил АвтоВАЗу выжить десять лет назад, добавил он.
Выпуск Lada Priora АвтоВАЗ начал в 2007 году, несколько раз с тех пор изменив кузов и двигатель модели. Пик популярности автомобиля пришелся на 2011-й, когда производителю удалось реализовать за год 138 тыс. машин. Всего за десять лет было выпущено более 860 тыс. автомобилей.
В 2015 году АвтоВАЗ решил максимально снизить стоимость этой модели, чтобы «продлить ей жизнь», говорил представитель компании Сергей Ильинский, хотя до этого обсуждалось, что производство Lada Priora прекратят, чтобы отдать мощности под сборку Lada Vesta.
Сборочная линия №3, где собирали Priora, продолжит работу: на этой линии с прошлого года собирают также универсалы Lada 4×4 («Нива»), уточнили в АвтоВАЗе.
LADA Priora — описание модели
История создания Lada Priora
Лада Приора — обновленная версия популярной модели семейства ВАЗ 2110, снятого с производства в 2007-м году. В связи с тем, что в конструкцию «десятки» для превращения ее в Ладу Приору внесли около тысячи изменений, ВАЗ-2170, 2171, 2172 и другие модификации можно считать новым семейством. В семейство Приора входят три модели: ВАЗ-2170 — седан, выпускается с марта 2007 года; ВАЗ-2172 — хэтчбек, с февраля 2008 года; ВАЗ-2171 — универсал, производится с мая 2009 года.
В результате существенной модернизации семейства 2110 АвтоВАЗа получил новый, комфортабельный и соответствующий основным стандартам современного рынка автомобиль. Даже в базовой комплектации в автомобиле имеется существенный набор опций: подушка безопасности, электропривод стеклоподъемников передних дверей, электроусилитель рулевого управления, центральный замок с дистанционным управлением, регулируемые по высоте крепления ремней безопасности и рулевая колонка, электронные часы, атермальные стекла.
Поскольку Priora официально считается продуктом рестайлинга, усмотреть в средней части кузова «десятку» можно, однако нос и корма не имеют ничего общего с аналогичными деталями предыдущей модели.
Экстерьер целиком и полностью разработан дизайнерами Волжского завода. Интерьер «Приоры» создавали дизайнеры из итальянской студии Carcerano. Благодаря их помощи передняя панель уже нельзя квалифицировать как «российскую», так как она, скорее, напоминает среднестатистическое торпедо автомобиля иностранного производства. Панель отделана мягким пластиком, козырек над комбинацией приборов имеет изогнутую форму, отлично сочетающуюся с часами овальной формы, встроенными в серебристую накладку в верхней части консоли.
В создании машины помимо итальянцев принимали участие специалисты из Италии, Германии, Франции, Японии и Кореи.
В марте 2007 года была выпущена первая небольшая партия седанов Priora. Уже через месяц, в апреля 2007 года, автомобили начали поступать в автосалоны. В 2010 году был проведен небольшой рестайлинг.
В 2017 году, по информации пресс-службы Волжского автозавода, планируется выпуск «Приоры» нового поколения, на новой платформе Lada B. Ранее АвтоВАЗ заявлял о том, что Priora-2017 года внешне будет напоминать концепт-кар Lada Xray, автором которого был Стив Маттин, новый шеф-дизайнер завода.
Технические особенности Lada Priora
Силовой агрегат: двигатель ВАЗ-21116 мощностью 90 л. с. (8 клапанов) или ВАЗ-21126 мощностью 98 л. с. (16 клапанов). В двигателе используются детали иностранного производства. В частности, применена значительно облегченная ШПГ зарубежного производства компании Federal Mogul, ремень ГРМ и натяжной ролик фирмы Gates, с заявленным ресурсом в 200 тысяч километров. Установка бензинового мотора 21128 рабочим объёмом 1,8 литра мощностью 120 л. с. производится в качестве тюнинга тольяттинской фирмой «Супер-авто». В числе других усовершенствований: усиленное сцепление, вакуумный усилитель тормозов увеличенного диаметра, механизм привода коробки передач с подшипниками закрытого типа.
Ходовая часть: несмотря на модернизацию стоек передней подвески с бочкообразными пружинами, в целом, схема на прямых кованых рычагами с диагональными реактивными тягами на сегодняшний день кажется архаичной.
В задней подвеске применены новые амортизаторы. Автомобиль обладает более эффективной, по сравнению с 2110, тормозной системой, оснащенной ABS и BAS (BOSCH 8.1). Помимо переднего появился и задний стабилизатор поперечной устойчивости. Задние тормоза остались неизменными; по мнению производителя они достаточно эффективны и не нуждаются в уходе.
В топовых комплектацях «Приору» можно приобрести с кондиционером и климат-контролем, подогром передних сидений, датчиком света и дождя, парктроником, электростеклоподъёмниками всех дверей, зеркалами с электроприводом и подогревом. Lada Priora с навигатором ГЛОНАСС/GPS была показаны на Московском автосалоне в августе 2010 года.
Преимущества и недостатки Lada Priora
Среди преимуществ – в значительной степени обновленный внешний вид, яркие современные фары, функциональная приборная панель, качественная отделка, более надежные двигатели. Значительно улучшена звуко- и шумоизоляция.
Особое внимание разработчики уделили системе безопасности. Результаты проведенных тестов подтверждают, что работа проделана не зря. Все модели оснащены подушками безопасности водителя, а кузов разработан с учетом современных требований пассивной безопасности.
Есть и некоторые минусы. Прежде всего, неустойчивая работа двигателя, потеря мощностей. Иногда двигатель не запускается. Причинами таких сбоев могут быть неполадки с уровнем давления топлива, нарушение работы ГРМ, неисправность датчиков, подсос воздуха через шланги. Как и в случае с предыдущими моделями, комплектующие, поставляемые на конвейер, не всегда отличаются высоким качеством.
Также можно отметить возможность поломки электроусилителя, чаще всего это случалось в автомобилях первых серий. Это связано с несовершенством конструкции. Неисправность устраняется в рамках гарантийного обслуживания
Электромобиль Lada ELLada
Первые электромобили Lada выпущены в 2012 году, а 22 января 2013 года первые пять электромобилей ELLada отправились в Ставропольский край в соответствии с соглашением, подписанным в августе 2012 года..
Интересные факты о Lada Priora
В 2012 году был составлен рейтинг самых угоняемых автомобилей. Лада Приора заняла в этом списке пятое место, что говорит о популярности автомобиля. Это же подтверждает и тот факт, что Приора вошла в список двадцати пяти самых продаваемых авто.
Один из автовладельцев решил испытать Приору на прочность, проехав по воде, уровень которой достигал передних зеркал. Надо отметить, что автомобиль отлично справился с поставленной задачей, после чего получил неофициальное название «амфибия».
Седаны Лада Приора с августа 2011 года выпускаются на заводе Чеченавто в Аргуне.
В 2012 году Лада Приора стала главным призом в конкурсе на звание лучшего участкового страны. Владельцем машины стал Александр Камелин из Верхней Салды.
Весной 2012 года Лада Приора стала юбилейный 27-миллионным автомобилем компании АвтоВАЗ.
Сборная модель Волжский автомобиль 2170 Lada Priora седан рестайлинг (2011)
Категории …Коллекционные моделиИнструментКраска, химия, материалыМаскиКаталоги, Книги, ЖурналыСборные моделиФототравлениеБоксы и стеллажи Журнальные серииИгрушкиРадиоуправляемые моделиСувенирыConcept CarАвтоспортАэродромная техникаВоенныеКиноМедицинаПожарныеПолицияПочта / mailСпецслужбыСтроительная техникаТакси
Производители …78artAA ModelsAberAbordageAbrexAbteilung502AcademyACEACMEAdvanced ModelingAFV clubAGM ModelsAHC ModelsAIM Fan ModelAiresAirFixAK InteractiveAKhobbyAlanAlangerAlclad IIAlex MiniaturesAlezanAlfAlmostrealALRAltayaAmercomAmerican DioramaAmerican Heritage ModelsAMG ModelsAMKAMMO MIGAmodelAmourAMPAMTAmusing HobbyAnsonAoshima (DISM)Apex RacingARK modelsARM.PNTArmaHobbyArmoryARS ModelArt ModelART-modelAscensioASK ModelsASQATCAtlasAudi MuseumAurora HobbyAuthentic DecalsAuto PilenAutoArtAutobahnautocultAutomodelle AMWAutomodelloAutotimeAutoworldAvanstyle (Frontiart)Avart ArhiveAVD ModelsAVD дополненияAVD покрышкиAvisAWMAZModelBachmannBalaton ModellBangBare-Metal Foil Co.BauerBBRBburagoBegemotBest ModelBest of ShowBianteBingBizarreBM CreationsBM-ToysBobcat dealerBorder ModelBrekinaBroncoBrooklin ModelsBrummBS DesignBuschby AKBy VolkCaesar miniaturesCar BadgeCararama (Hongwell)CarlineCarNelCBModelsCentauriaCenturyCentury DragonCentury WingsCHIEFF ModelsChina ModelsClassic 43ClassicbusClearPropCMCCMFCMKCMRColibri DecalsCollector’s ClassicsConradCopper State ModelsCorgiCrazy Classic TeamCult Scale ModelsCursorD.N.K.Daimler-MARDANmodelsDarksideDasModelDAYdiecastETCHDays-goneDeAgostiniDecal ShopDel PradoDenisssModelsDetailCarsDiapetDickie SpielzeugDie-Cast superDie-cast по-домашнемуDifferent ScalesDinky ToysDiOlex ProductionDioparkDioramaTechDiP ModelsDirekt CollectionsDistlerDMA Hue StudioDNAdnanoDoctor DecalDong GuanDorlopDragonDUPLI COLOREaglemossEasy ModelEbbroEco-Wood-ArtEdison GiocattoliEdmon StudioEduardEidolon Make-UpELFEligorEmanEMC ModelsERAERTLESCIEsval ModelsEUREKA XXLEvergreen (USA)EVR-miniExcelExotoEXPRESSO WINGSFalcon ModelsFallerFine MoldsFirst 43 ModelsFirst ResponseFirst to FightFLAGMANFlyFly Car ModelFlyHawk ModelForces of ValorFormat72Forward-68FoxtoysFranklin MintFreedom ModelsFriulmodelFrontiartFUGU_GARAGEFujimi MokeiGAMAGarageGarbuz modelsGartexGearboxGeminiJetsGems & CobwebsGIMGK Racer SeriesGlencoe modelsGLMGMP / ACMEGMU ModelGoldvargGorky ModelsGreat Wall HobbyGreenlightGroup MastersGT AutosGT SpiritGuiloyGuisvalGunTower ModelsHachetteHarder_SteenbeckHartoy Inc.HasbroHasegawaHat Plastic ModelsHedgeModelsHekiHellerHerpaHi-StoryHigh SpeedHighway 61HistoricHobby 2000Hobby BossHobby DesignHobby MasterHobby PlanetHobbyCraftHomerHot WheelsHot Wheels EliteHPIHumbroli-ScaleIBG ModelsICMICV (СПб)IlarioInno ModelsInterusISTItaleriIVYIXOJ-CollectionJada ToysJadiJASJB ModellautosJoalJohn Day ModelsJohnny LightningJolly ModelJouef EvolutionJoy CityJTKKadenKangnamKatoKAV modelsKeng Fai ToysKESS ModelKineticKing starKinsmartKitechKitty HawkKK ScaleKorean modelsKOVAPKovozavody ProstejovKremlin Vehicle parkKV ModelsKyoshoK_S Precision MetalsLa Mini MinieraLada ImageLastochkaLCD MODELSLenmodeLLeo ModelsLIFE in SCALELion-ToysLionRoarLiveResinLledoLooksmartLouis SurberLS CollectiblesLucky DiecastLucky ModelsLucky PlanLUSO-toysLuxcarLuxury CollectiblesLuxury die-castM-SmartM2 MachinesM4 MAC DistributionMacadamMACHETEMagic ModelsMaistoMake UpMAKSIPROFMaquetteMarklinMARSMars ModelsMarsh ModelsMaster BoxMaster ToolsMasterClubMasterCraftMatchboxMatrixMax-ModelsMaxi CarMAXI COLORMaxichampsMaxModelsMD-modelsMengMercuryMeritMetroMicro Scale DesignMIG productionsMilestone MiniaturesMilitaryWheelsMiniarmMiniArtMiniaturmodelleMinichampsMiniClassicMinicraftMiniCraft Scale ModelsMiniHobbyModelsMiniTankMiniWarPaintMIRAMirage HobbyMirror-modelsMISTERCRAFTMMPModel PointModel-IconsModelCarGroupModelcollectModelerModelGunModelProModelSvitModimioMODUS 90MolotowMondo MotorsMondseeMonogramMONTI SYSTEMMoonMoremMotipMotor MaxMotoramaMotorartMotorheadMotoScaleModelsMPCMPMMR CollectionMr.HobbyMTech (M4)Nacoral S.A.NEONeomegaNew PenguinNew RayNH DetailNickelNik-ModelsNittoNochnonameNorevNorscotNorth Star ModelsNostalgieNVANZG ModelleOKB GrigorovOld CarsOLFAOlimp ModelsOne by One ProductionONYXOrionORNST modelOTTO ModelleOvs-DecalsOxfordPacific88Palma43Panda HobbyPaniniPANTHEONPanzerstahlParagonPasDecalsPasModelsPaudi ModelsPB Scale ModelsPegas-ModelsPegoPhoenix MintPinKoPlatzPlusmodelPMSPorsche MuseumPotato CarPremium ClassiXXsPremium Scale ModelsPremium XPrint ScaleProDecalsProgetto KPrommodel43Provence MoulagePSTPt ModelsQuartzoQuickboostQuinta StudioRacing Champions inc.RAROGRastarRB ModelRBA CollectiblesRebel CustomRecord — M.R.F.Red BoxRed LineRenn MiniaturesRenner WerbemittelReplicarsResKitRevellRextoysREXxRickoriddikRietzeRiichRiich ModelsRIORMZ CityRoad ChampsRoad KingsRob-TaurusRodenROSRossoRosso & FlyRoubloffRPG-modelRPMRTMRusAirRussian collectionRye Field ModelS-ModelSaicoSC Johnson (USA)ScaleGarageSchabakSchucoSEAT (дилер.)SG-ModellingShelby CollectiblesShurikenSignatureSIKUSkale WingsSKIFSky-HighSmerSMMSnakeModelSochi 2014SolidoSophiArtSouth FrontSOVA-MSoviet ArmourSparkSpecial HobbyStarlineStart Scale ModelsSTC STARTSTMSunnysideSunstarSuper ASX-ArtS_BT-ModelT.R.L. ModelTakomTameo KITsTamiya (J)TarmacTech4TecnomodelTeknoThunder ModelTic TocTiger ModelTin WizardTins’ ToysTMTmodelsTOGATomicaTop MarquesTop Model CollectionTopSpeedToxso ModelTraxTriple 9 CollectionTristarTrofeuTrumpeterTSM ModelUCC CoffeeUltimate DiecastULTRA modelsUM Military TechnicsUM43UMIUnimaxUniversal HobbiesunoMAGUT ModelsV.V.M / V.M.M.V43Vallejovanamingo-nnVanboVanguardsVAPSVector-ModelsVeremVictoriaVintage Motor BrandsVIPcarVitesseVM modelsVMmodelsVmodelsVoka-ГРАНЬVrudikWar MasterWasanWaterlooWeiseWellyWhite BoxWhite RoseWikingWilderWingsyWinModelsWIX CollectiblesWM KITWSIXQ Xuntong ModelYat MingYVS-ModelsZ-ModelsZebranoZedvalZip-maketZISSZZ ModellаRтБаZаАвто-бюроАвтоисторияАвтопанорамаАвтопаркАГАТАиФАканАМформаАнтонюкАрсеналартель УниверсалъАтелье Etch modelsАтомБурБеркутБригадирВекторВитязьВойны и битвыВосточный экспрессГараж на столеДекали BossДекали ModelLuxДекали SF-AutoДилерские модели БЕЛАЗДругойЗвездаИмпериалъКазанская лабораторияКиммерияКОБРАКолхоZZ DivisionКомбригКомпаньонЛитература (книги)ЛОМО-АВМмастер DimscaleМастер Дровишкинмастер КолёсовМастер СкаляровМастерПигментМастерская Decordмастерская JRМастерская SECМастерская АВТОДОРМастерская ГоСТМастерская ЗнакМастерская КИТМастерская МЕЛМаэстро-моделсМикродизайнМикроМирМиниградМинимирМир МоделейМодел.лабМОДЕЛИСТМоделстройМодельхимпродуктМР СТУДИЯНаш АвтопромНаши ГрузовикиНаши ТанкиОгонекПАО КАМАЗПетроградъПетроградъ и S_BПламенный моторПланета ПатворковПобедаПрапорПрестиж КоллекцияПромтракторРетроЛабРусская миниатюраРучная работаСарлабСВ-МодельСделано в СССРСергеевСМУ-23.SСоветский автобусСолдатикиСПБМСТАРТ 43Студия МАЛТАРАНТемэксТехнологТехноПаркТри А СтудиоТри БогатыряТРЭКСХерсон МоделсЦейхгаузЧЕТРАЭлеконЭскадраЮный коллекционерЯ-Моделист
Марки моделей …AbarthACAcuraADLERAECAGUSTAWESTLANDALFA ROMEOALPINE ALVISAMCAMERICAN LaFranceAMPHICARArmstrongAROArrowsARTEGAASCARIASTON MARTINAUBURNAUDIAURUSAUSTINAustro DaimlerAUTO UNION AutobianchiAVIAAWZBACBARKASBATMOBILEBEDFORDBEIJINGBenelliBENETTONBENTLEYBERLIETBERNARDBESTURNBIANCHIBIZZARINIBLUEBIRDBMWBobcatBORGWARDBRABHAMBrawner-HawkBRISTOLBRMBUCCIALIBUFFALOBUGATTIBUICKBussingCADILLACCAPAROCASECATERHAMChanganChangheCHAPARRALCHAUSSONCHECKERCHEETAHCHEVROLETCHRYSLERCISITALIACITROENCOBRACOMMERCooperCOPERSUCARCORDCORVETTE CORVIAR MONZACsepelDACIADaewooDAFDAIHATSUDAIMLERDALLARADATSUNDE DION BOUTONDe SotoDE TOMASODELAGEDELAHAYEDeLOREANDENNISDESOTODEUTZ DIAMONDDKWDODGEDongfengDONKERVOORTDUBONNETDUCATIDUESENBERGDYNAPACEAGLEEBROEDSELEMWENVISIONFACEL-VEGAFAWFENDTFERRARIFIATFORDFORDSONFOTONFRAMOFREIGHTLINERFSOGINAFGMCGOGGOMOBILGOLIATHGORDONGRAHAMGREAT WALLGUMPERTHAMMHANOMAGHARLEY DAVIDSONHEALEYHENSCHELHindustan HINOHISPANO SUIZAHITACHIHOLDENHONDAHORCHHOTCHKISSHUDSONHUMBERHUMMERHYUNDAIIFAIKARUSIMPERIALINFINITIINGINNOCENTIINTERNATIONALINVICTAIRISBUSISOISOTTA FraschiniISUZUIVECOJAGUARJAWAJEEPJELCZJENSENKAISERKalmarKAWASAKIKENWORTHKIAKOENIGSEGG KOMATSUKRAMERKRUPPKTMLA SALLELAGONDALAMBORGHINILANCIALAND ROVERLANDINILanzLatilLaurin & KlementLaverdaLDSLEXUSLEYATLEYLANDLEYTONLIAZLIEBHERRLIGIERLINCOLNLISTERLLOYDLOCOMOBILELOLALORENZ & RANKLLORRAINE-DIETRICHLOTECLOTUSLUBLINMACKMAD MAXMAGIRUSMANMARCHMARUSSIA-VIRGINMASERATIMASSEY MATRAMAXIMMAYBACHMAZDAMAZZANTIMCAMcLARENMEGAMELKUSMERCEDES-BENZMERCERMERCURYMESSERSCHMITTMGBMIGMIKRUSMINARDIMINERVAMINIMIRAGEMITSUBISHIMONICAMORETTIMORGANMORRISMOTO GUZZIMULTICARMVMZNASH AMBASSADORNEOPLANNEW HOLLANDNISSANNIVA CHEVROLETNOBLENORMANSUNYSAOLDSMOBILE OLTCITOM LEONCINOOPELOPTIMASORECAOscaPACKARDPAGANIPanhardPANOZPANTHERPEGASOPESCAROLOPETERBILTPEUGEOTPHANOMEN PIERCE ArrowPLYMOUTHPOLONEZPONTIACPORSCHEPRAGAPRIMAPRINCE PUMARAMRAMBLERRED BULLRENAULTRoburROCARROLLS-ROYCEROSENBAUERROSENGARTROVERRUFSAABSACHSENRINGSALEENSALMSONSAMSUNGSANSANDEROSATURNSAUBERSaurerSAVASAVIEM SCAMMELSCANIASCIONScuderiaSEAGRAVESEATSETRASHADOWSHANGHAISHELBYSIMCASIMPLEXSIMSONSINPARSKODASMARTSOMUASoueastSPYKERSSANG YONGSSCSTANLEYSTARSTEYRSTUDEBAKERSTUTZSUBARUSUNBEAMSUZUKISYRENATALBOTTARPANTATATATRATEMPOTeslaTHOMASTOYOACETOYOPETTOYOTATRABANT TRIUMPHTUCKERTUKTVRTYRRELLUNICVANWALLVAUXHALLVECTORVELOREXVENTURIVERITASVESPAVincentVOISINVOLKSWAGENVOLVOWANDERERWARSZAWAWARTBURGWESTERN STARWHITEWIESMANNWILLEMEWILLIAMSWillysYAMAHAYOSHIMURAYUGOZAGATOZASTAVAZUKZUNDAPPZunderZYTEKАМОБЕЛАЗВИСВНИИТЭ-ПТВолжский автомобильГорькийЕрАЗЗАЗЗИLЗИSЗИМЗИУИЖКАЗКамский грузовикКИМКРАЗКубаньКурганский автобусЛАЗЛенинградЛикинский автобусЛуаЗМАЗМЗКТМоАЗМОСКВИЧМТБМТЗНАМИНАТИОДАЗПавловский автобусПЕТРОВИЧРАФРуссобалтСаранский самосвалСемАРСМЗСТАРТТАРТУУАЗУралЗИСУральский грузовикЧЕТРАЧМЗАПЯАЗЯТБ
Типы товаров …ДекалиЗапчасти, аксессуарыЭлементы диорамАвиацияВоенная техникаВодный транспортЖ/Д транспортАвтобусВнедорожник / КроссоверГрузовикКемперГужевая повозкаЛегковой автомобильМикроавтобус / ФургонМотоциклПикапПрицепыТракторы, комбайныТроллейбусФигурки
Масштаб …1:11:21:31:51:61:81:91:101:121:141:161:181:201:211:221:241:251:261:271:281:291:301:321:331:341:351:361:371:381:391:401:421:431:441:451:461:471:481:501:511:521:541:561:571:601:641:681:691:721:751:761:801:831:871:901:951:961:1001:1031:1081:1101:1121:1201:1211:1251:1261:1301:1421:1441:1451:1481:1501:1601:2001:2201:2251:2501:2851:2881:3001:3501:3901:4001:4501:5001:5301:5501:5701:6001:7001:7201:8001:10001:11001:12001:12501:15001:2700
LADA Priora (Лада Приора) в Волгограде
LADA Priora седан
Модель LADA Priora седан появилась на российском рынке еще в 2007 году. В первые же месяцы продаж машина была встречена покупателями весьма положительно. Сегодня вы может приобрести этот отечественный автомобиль, который по своему оснащению не уступает европейским аналогам, цена которых нередко отличается не в самую приятную сторону. В чем преимущества «Приоры»?
Если вы предпочитаете вместительные и практичные 4-дверные машины, которые удобны в эксплуатации и хороши внешне, то обратите внимание на LADA Priora. Двигатель автомобиля имеет мощность 98 л.с. Он хорошо справляется с ездой по городским дорогам, и по трассе. Расход бензина в смешанном цикле составляет при этом около 8 с половиной литров на «сотню».
Современная система подвески рассчитана специально на российские дороги. Амортизаторы энергоемки, рычаги и гидроусилитель руля надежны. Машина хорошо управляема в разных условиях. Заводская гарантия 6 лет подтверждает утверждения об антикоррозийной защите кузова. А ведь речь идет об автомобиле, который создан практически с нуля.
Лада Приора была спроектирована итальянскими специалистами из фирмы AE. Благодаря задействованию европейского опыта, автомобиль получился просто великолепным для повседневного использования. Но у «Приоры» хватает своих особенностей. Например, уже в стандартной комплектации машина оснащена атермальными стеклами, иммобилайзером и аудиоподготовкой.
Более «прокачанная» комплектация «Норма» уже имеет подушку безопасности, оснащена центральным замком, электропакетом и другими элементами хорошего автомобиля. Но, даже не смотря на массу нововведений и «примочек», Лада Приора остается ВАЗом в самом лучшем смысле: автомобиль надежен и прост в эксплуатации, обслуживание недорогое, а запчасти продаются повсеместно.
LADA Priora хэтчбек
LADA Piora хэтчбек приобрела большую популярность, и не в последнюю очередь, благодаря своей маневренности. Это качество очень важно для автомобиля в условиях современного города. Уверенность в дорожных пробках с Лада Приора — проще простого. Автомобиль по большей части списка характеристик ни капли не уступает в эргономике и вместительности багажника своему аналогу в кузове «универсал», а по маневренности — седану и купе.
Лада Приора 21723 — автомобиль, который выбирают динамичные люди, знающие цену комфорту и свободе передвижения. Внешний облик этой модели элегантен со спортивным оттенком. При этом машина имеет 5 дверей, как универсал. Это позволяет «Приоре» в кузове «хэтчбек» быть более функциональным авто, нежели седан. Но выделяющаяся солидность седана тоже присуща хэтчбеку, а поэтому Лада 21723 — автомобиль для людей, думающих о своем имидже.
LADA Priora универсал
Lada Priora в кузове «универсал» — семейный автомобиль, привлекающий просторным салоном и вместительным багажником. Эта машина универсальна и для ежедневных поездок по городским дорогам, и для дальнего путешествия.
При этом дизайн «Приоры» универсал простотой не отличается: в нем присутствуют черты, характерные скорее для престижных автомобилей бизнес-класса. Аэродинамика линий кузова и эстетичность черт подтверждают это — автомобиль выглядит весьма утонченно.
Система безопасности претерпела модернизацию. Автомобиль получил эффективные подушки безопасности, которые способны эффективно предотвращать травмы пассажиров и водителя автомобиля в случае возможных дорожных происшествий.
Фото Лада Приора седан
Фото автомобилей
Фото Лада Приора хэтчбек
Фото автомобилей
Фото Лада Приора универсал
Фото автомобилей
LADA (ВАЗ) Priora — описание модели
Подготовка к выпуску LADA Priora началась отечественным автоконцерном еще в 2006 году. Спустя год модель вышла серийно, ей присвоили индекс 2170. Автомобиль создали на базе Лада 110, от которой Приора получила платформу, силовой агрегат и другие технические решения. Внешне остались черты «десятки» — вид сбоку и количество дверей. И как утверждает производитель, двери стали шире на 5 мм. Чтобы установить именно такие двери, на заводе были специально модернизированы штампы. Тысячи деталей преобразовались в ходе создания Лады Приоры – официально заявляет АвтоВАЗ. Спереди и сзади – новая оптика, новые бампера, капот и другие элементы внешнего облика. Шины для 14-ти дюймовых колес Лада Приора были приобретены у завода «Кама Euro», их ширина – 185 мм, а высота профиля – 65 мм.
Студия «CarceranoS.r.l. Automotive Design» активно принимала участие, когда специалисты АвтоВАЗ занимались дизайном Lada Priora. Благодаря слаженным русско-итальянским усилиям салон автомобиля обрел современный стиль, а уровень удобств полностью соответствует международным стандартам. Салон отделан новейшими материалами. Интерьер салона визуально двух тонный: верх имеет светлые оттенки, а низ – темные. Но автолюбителям с особыми запросами производитель приготовил еще несколько цветовых решений салонного пространства. Обивки дверей такого же двухцветного плана идеально гармонируют общей картине внутри авто. В подлокотнике двери водителя размещены кнопки управления центральным замком, стеклоподъёмниками и джойстик, который несет функцию регулировки наружных зеркал. Согласно мировым стандартам кнопки стеклоподъёмника локализированы таким образом, который полностью исключает возможность случайного нажатия. Место хранения мелких вещей организовано в подлокотнике между передними сидениями. Там есть 2 специальные ниши. Такой девайс впервые используется на автомобилях Лада. В обивку потолка перед водителем и передним пассажиром вмонтирована консоль с плафоном индивидуального освещения. Там же имеется полочка для очков.
Элементы управления на приборной панели отлично видно. В центре имеется окошко, которое считывает показания бортового компьютера. Там можно увидеть все необходимые данные, расходы топлива (мгновенный и средний), среднюю скорость, часы, одометр и много других необходимых параметров производительности авто. За регулировку светотехники в Приоре отвечает оригинальный модуль. Он находится слева от руля. С его помощью можно управлять габаритными огнями, противотуманными фонарями, ближним светом, задействовать электрокорректор фар, или же настроить яркость подсветки приборов. Ближе к рычагу КПП, на центральной консоли находиться кнопка отпирания багажника, который, к слову, является вместилищем 430 литров багажа. Открыть багажный отсек можно только 2 способами, либо с брелока сигнализации, либо в салоне, так как отдельной кнопки на его крышке снаружи не предусмотрено. Центральная консоль поддерживает установку аудиосистем форматов DIN и 2DIN.
ВАЗ Приора — видео ролик
Двигатель Приоры, знаком по модели ВАЗ-21104. Это 1,6-литровый силовой агрегат с 16 клапанным устройством, мощностью 98 л.с. 5-ти-ступенчатая КПП получила усовершенствованное сцепление, которое способно передать крутящий момент в 145 Нм. В трансмиссию поставили подшипники закрытого типа, с увеличенным сроком эксплуатации. Вакуумный усилитель тормозов в несколько раз повышает эффективность работы тормозной системы. Высокие показатели уровней управляемости и устойчивости достигаются за счет новых стоек передней и задней подвесок, которые дополняют тщательно подобранные по характеристикам стабилизаторы и амортизаторы. Максимальная скорость, которую может достигнуть авто с водителем и одним пассажиром, равна 183 км/час. С 0 до 100 км/час Lada Priora разгоняется за первые 11,5 с. Уровень вредных веществ, которые содержаться в выхлопных газах, полностью допустим согласно экологическим стандартам Евро-3 и Евро-4. Соответствие стало возможным благодаря смещению катализатора ближе к мотору. Процесс катализации токсинов в таком положении протекает быстрее за счет дополнительного тепла от силовой структуры.
Начальная комплектация авто включает в себя: иммобилайзер, часы, два подголовника для пассажиров заднего ряда, электропривод передних стеклоподъемников, центральный замок с дистанционным приводом, электроусилитель руля, подлокотник между сиденьями водителя и переднего пассажира, подушку безопасности водителя, корректор фар, рулевую колонку, адаптируемую под нужную для водителя высоту, бортовой компьютер и спинку заднего сиденья с подлокотником. И это все уже в базовой комплектации. В Priora также установили новую современную системы вентиляции и отопления, благодаря которым в салоне поддерживается нужный микроклимат. Все представители этого модельного ряда оснащены электрообогревом заднего стекла и стеклами, которые отличаются своими теплопоглощающими свойствами. Система АВС с EBD досталась только люксовой комплектации, и не предусмотрена в других. В «Люксе» также имеются активная система безопасности (вторая подушка для переднего пассажира и ремни с преднатяжителями), кондиционер и стеклоподъемники на всех дверях. Внешне «богатая» комплектации отличается по литым дискам, датчикам парктроника, передним противотуманкам и корпусам внешних зеркал заднего вида. С появлением новой комплектации, появился и новый для Lada Priora тип кузова – хэтчбек.
Больше половины кузовных элементов авто изготовлены из низколегированных сталей или из оцинкованного металла. Сталь с двухсторонним покрытием путем горячего цинкования, применяется для предотвращения коррозии в наиболее подвергаемых местах – порогах, колесных арках и отдельных элементах пола кузова. А с учетом, что такое покрытие дополняется качественными лакокрасочными материалами, современной антикоррозийной обработкой — стойкость к сквозной коррозии гарантируется на 6 лет.
Универсал Lada Priora автоконцерн готовил к 2009 году.
Рестайлинговая Priora была презентована на выставке автосалона «Motor Expo 2013» 27 сентября в Тольятти.
Особых изменений в конструкции рестайлинг не привнес. Однако новые детали и черты во внешности Приоры 2013 присутствуют. Теперь авто во всех кузовных модификациях оснащаются фарами головной оптики с дневными ходовыми огнями, задними габаритными фонарями и светодиодными стопами для хэтчбека и седана. Новые авто получили иную облицовку радиаторной решетки (сетчатого типа) и новые задние бампера с энергопоглощающей лентой. Во всем остальном изменений не было, контуры кузова и габаритные характеристики остались от предыдущей версии.
Обновленная модель стала доступна в продаже в четырех кузовных исполнениях (купе, хэтчбек, седан и универсал). Седан имеет длину кузова в 4 350 мм и колесную базу в 2 492 мм, хэтчбек несколько короче – 4 210 мм. Что седан, что хэтчбек имеют одинаковую ширину – 1 680 мм. Высота разная: седан – 1420 мм, хэтчбек на 15 мм больше. Дорожный просвет у обоих представителей 165 мм.
В салоне изменений порядком больше, нежели внешних. Мастера-дизайнеры поработали основательно – интерьер и опции изменились в лучшую сторону. Обновления коснулись не только эстетики, они качественно улучшили уровень комфорта. Пластик soft-look покрывает торпедо, а его устойчивость перед царапинами гарантирует надежную защиту перед мелкими механическими повреждениями. Псевдо серебряные вставки сменились накладками типа рояльного лака.
Помимо обновленных материалов обивки, двери получили улучшенные брусья безопасности. Опции информационно-развлекательно системы отображаются на полноцветном 7-ми дюймовой дисплее с высоким разрешением и сенсорным управлением. Трехспицевый руль нового образца имеет привлекательную форму, а дополнительные функции выведены на подрулевые лепестки.
Кресла для водителя и пассажира конструктивно новые: за счет увеличения спинок в высоту на 40 мм, распределение нагрузки происходит равномерно,ход салазок увеличен на 20 мм, также они оснащены трехрежимным подогревом. Эргономичный подлокотник между сидениями отлично дополняет интерьер и повышает уровень удобств.
Производитель заявляет об улучшении акустического комфорта. В салоне новой Lada Priora исчезли посторонние шуми и звуковая нагрузка от внешних источников.
Как дополнение к базовой комплектации и за отдельную плату можно оформить оборудование салона климатической установкой, также можно заказать круиз-контроль, систему динамической стабилизации и много других полезных опций.
Чего не коснулись изменения, так это багажного отделения. Он по прежнему готов к транспортировке 430 л поклажи. В хэтчбеке багажник порядка 360 л, но возможно расширение до 700 л. Ходовая стала более собранной и в меньшей степени подвержена пробоям, благодаря изменениям в задней и передней подвесках. Руль стал несколько короче, но получил современный, мощный электромеханический усилитель.
В плане технического прорыва. Расширились горизонты доступных силовых агрегатов, за счет пополнения новым флагманом. Но стоит указать на то, что ранее использовавшиеся бензиновые моторы не изменились. Их просто продолжили устанавливать в рестайлинговую версию в прежнем виде.
Роль самого младшего двигателя в линейке, как и всегда, достается 4-цилиндровому рядному силовому агрегату с поперечной схемой расположения. Его объем – 1,6 л или 1 596 см3. Восьми клапанный механизм газораспределения, а также инжекторная система подачи топлива дополняют комплектацию двигателя. Экологическим требованиям международного протокола Евро-3 двигатель соответствует. Бензин ниже 95-ого использоваться в нем не должен. Мощность двигателя с такими параметрами – 87 л.с., крутящий момент достигает отметки 140 Нм, при оборотах 3 800 в минуту. Скоростной максимум настигает мотор на 176 км/час. На разгон со старта до 100 км/час младшему мотору нужно 13 секунд. Расход остался прежним, в смешанном цикле – 7,3 л на каждые 100 километров пройденного пути.
Бывший флагман – отныне стал промежуточным вариантом. Рабочий объем этого двигателя такой же, как и младшего брата – 1,6 литра. Но благодаря перенастройке инжекторной системы и переоснащения чуть иным газораспределительным механизмом, максимальная мощность 4-циллиндрового бензинового представителя стала 98 л.с., которые достигаются при 5 600 оборотах в минуту. 145 Нм – предел крутящего момента, который достигается уже на 4 000 оборотах в минуту. Максимум скорости, по словам производителя, достигается на уровне 183 км/час. Однако сокращено время разгона на 1,4 сек по сравнению с младшим двигателем. Более сильный мотор, при всем этом, эффективен и экономичен. Средний расход топлива – 7, 2 л, а при комплектации авто кондиционером – на 200 грамм больше.
Новый флагман, как и два предыдущих силовых агрегата имеет такой же объем. Но за счет новой системы подачи топлива и динамического наддува, увеличилась общая мощность – 106 л.с., которые достигаются при оборотах 5 800 в минуту. 148 Нм при 4000 об/минуту – максимум флагманского движка. С расходом топлива – 6,9 л на 100 км пробега, авто первые 100 км достигает за 11,5 сек, максимальная скорость находиться в пределах 183 км в час.
Все три модификации двигателей изначально работали только в 5-ступенчатой механической КПП, но уже спустя год на Приору начали устанавливать АКПП. Но заказать такую коробку можно только с 106-сильным новым флагманским двигателем.
Комплектаций Lada Priora доступно 3:
- «Стандарт»;
- «Норма»;
- «Люкс».
Топовая модель имеет систему динамической стабилизации авто (сокращенно ESP), мультимедийную систему с поддержкой интерфейса Bluetooth и USB, навигаторы, и, конечно же, САПС.
Глава 10 Введение в сравнение байесовских моделей
Байесовская модель состоит из модели данных (вероятность) и априорного распределения параметров модели. Выбор модели обычно относится к выбору между различными моделями данных (вероятностей). Но это также может касаться выбора между моделями с одинаковой вероятностью, но разными априори.
При сравнении байесовских моделей априорные вероятности назначаются каждой из моделей, и эти вероятности обновляются с учетом данных в соответствии с правилом Байеса.Сравнение байесовских моделей можно рассматривать как байесовскую оценку в иерархической модели с дополнительным уровнем для «модели». (Позже мы рассмотрим иерархические модели более подробно.)
Пример 10.1 Предположим, у меня есть несколько монет для трюков, некоторые из которых смещены в пользу выпадения орла, а некоторые — в пользу выпадения решки. Я выберу фишку наугад; пусть \ (\ theta \) будет вероятностью того, что выбранная монета упадет орлом при любом одиночном броске.Я подброшу монету \ (n \) раз и использую данные, чтобы решить, в каком направлении она будет отклоняться. Это можно рассматривать как выбор между двумя моделями
.- Модель 1: монета смещена в пользу приземления на орел
- Model 2: монета смещена в пользу приземления на решку
Предположим, что в модели 1 априорным распределением для \ (\ theta \) является бета (7.5, 2.5). Предположим, что в \ (n = 10 \) флипах выпало 6 решек. Используйте моделирование, чтобы приблизительно оценить вероятность наблюдения 6 голов за 10 переворотов при условии, что модель 1 верна .
Предположим, что в модели 2 априорным распределением для \ (\ theta \) является бета (2.5, 7.5). Предположим, что в \ (n = 10 \) флипах выпало 6 решек. Используйте симуляцию, чтобы приблизительно оценить вероятность наблюдения 6 голов за 10 переворотов при условии, что модель 2 верна .
Используйте результаты моделирования для аппроксимации и интерпретации байесовского фактора в пользу модели 1 при 6 головах за 10 переворотов.
Предположим, что наша априорная вероятность для каждой модели равна 0.5. Найдите апостериорную вероятность каждой модели, если у вас 6 решек за 10 подбрасываний.
Предположим, я знаю, что у меня гораздо больше монет с хвостовым смещением, поэтому моя априорная вероятность для модели 1 была 0,1. Найдите апостериорную вероятность каждой модели при 6 решениях за 10 подбрасываний.
Теперь предположим, что я хочу предсказать количество орлов в следующих 10 бросках выбранной монеты.
Используйте моделирование для аппроксимации апостериорного прогнозируемого распределения количества голов в следующих 10 переворотах при 6 головах в первых 10 переворотах при условии, что модель 1 является правильной моделью .В частности, аппроксимируйте апостериорную прогнозируемую вероятность того, что в следующих 10 бросках будет 7 голов, тогда модель 1 будет правильной.
Повторите предыдущую часть, предполагая, что модель 2 является правильной.
Предположим, что наша априорная вероятность для каждой модели равна 0,5. Используйте моделирование, чтобы аппроксимировать апостериорное прогнозируемое распределение количества голов в следующих 10 переворотах при 6 головах в первых 10 переворотах. В частности, приблизьте апостериорную прогнозируемую вероятность того, что в следующих 10 бросках выпадет 7 решек.
Учитывая, что модель 1 верна, смоделируйте значение \ (\ theta \) из предыдущей бета (7.5, 2.5), а затем, учитывая \ (\ theta \), смоделируйте значение \ (y \) из Биномиальное (10, \ (\ theta \)) распределение. Повторяйте много раз. Доля смоделированных повторений, которые дают значение \ (y \), равное 6, приблизительно соответствует вероятности наблюдения 6 голов в 10 переворотов при условии, что модель 1 верна. Вероятность 0,124.
Nrep = 1000000 тета = rbeta (Nrep, 7,5, 2,5) y = rbinom (Nrep, 10, тета) сумма (y == 6) / Nrep
## [1] 0,123892
Аналогично предыдущей части, но с предыдущей моделью 2. Вероятность 0,042.
Nrep = 1000000 тета = rbeta (Nrep, 2,5, 7,5) y = rbinom (Nrep, 10, тета) сумма (y == 6) / Nrep
## [1] 0,041953
Фактор Байеса — это отношение правдоподобия.Вероятность выпадения 6 орлов в 10 флипах по модели 1 составляет 0,124, а по модели 2 — 0,042. Фактор Байеса в пользу модели 1 составляет 0,124 / 0,042 = 2,95. Наблюдение 6 голов за 10 сальто на 2,95 более вероятно при модели 1, чем при модели 2. Кроме того, апостериорные шансы в пользу модели 1 при 6 орлах в 10 флипах в 2,95 раза больше, чем предыдущие шансы в пользу модели 1.
В этом случае априорные шансы равны 1, поэтому апостериорные шансы в пользу модели 1 равны 2.95. Апостериорная вероятность модели 1 составляет 0,747, а апостериорная вероятность модели 2 — 0,253.
Теперь априорный коэффициент в пользу модели 1 равен 1/9. Таким образом, апостериорные шансы в пользу модели 1 при 6 играх решки за 10 подбрасываний равны (1/9) (2,95) = 0,328. Апостериорная вероятность модели 1 составляет 0,247, а апостериорная вероятность модели 2 — 0,753.
Теперь предположим, что я хочу предсказать количество орлов в следующих 10 бросках выбранной монеты.
Если модель 1 правильная, то предыдущая — Бета (7.5, 2.5), поэтому после наблюдения за 6 головами в 10 сальто задняя часть — бета (13,5, 6.5). Смоделируйте значение \ (\ theta \) из бета-распределения (13.5, 6.5) и с учетом \ (\ theta \) смоделируйте значение \ (y \) из биномиального (10, \ (\ theta \)) распределения. . Повторяйте много раз. Приблизительно апостериорная прогнозируемая вероятность 7 решек в 10 сальто сальто при условии, что модель 1 верна и 6 решек в первых 10 сальто, с долей смоделированных повторений, которые дают значение \ (y \) 7; вероятность равна 0.216.
Nrep = 1000000 тета = rbeta (Nrep, 7,5 + 6, 2,5 + 4) y = rbinom (Nrep, 10, тета) участок (таблица (y) / Nrep, ylab = "Апостериорная прогнозная вероятность", main = "Данная модель 1")
Симуляция аналогична, просто используйте предыдущую в модели 2. Апостериорная прогностическая вероятность того, что 7 решек в 10 сальто сальто, при условии, что модель 2 верна и 6 орлов в первых 10 сальто, равна 0,076.
Nrep = 1000000 тета = rbeta (Nrep, 2.5 + 6, 7,5 + 4) y = rbinom (Nrep, 10, тета) участок (таблица (y) / Nrep, ylab = "Апостериорная прогнозная вероятность", main = "Данная модель 2")
В предыдущей части мы видели, что с априорной вероятностью 0,5 / 0,5 на модели и 6 орлами за 10 флипов апостериорная вероятность модели 1 составляет 0,747, а модели 2 — 0,253. Теперь мы добавляем еще один этап в нашу симуляцию
- Смоделируйте модель: модель 1 с вероятностью 0,747 и модель 2 с вероятностью 0.253
- Данная модель имитирует значение \ (\ theta \) из ее апостериорного распределения: бета (13.5, 6.5), если модель 1, бета (8.5, 11.5), если модель 2.
- Для данного \ (\ theta \) смоделировать значение \ (y \) из биномиального (10, \ (\ theta \)) распределения
Результаты моделирования представлены ниже. Мы также можем найти апостериорную предсказательную вероятность 7 решек в следующих 10 флипах, используя закон полной вероятности для объединения результатов двух предыдущих частей: \ ((0.747) (0,216) + (0,253) (0,076) = 0,18 \)
Nrep = 1000000 альфа = с (7,5; 2,5) + 6 бета = с (2,5, 7,5) + 4 модель = образец (1: 2, размер = Nrep, replace = TRUE, prob = c (0,747, 0,253)) theta = rbeta (Nrep, альфа [модель], бета [модель]) y = rbinom (Nrep, 10, тета) участок (таблица (y) / Nrep, ylab = "Апостериорная прогнозная вероятность", main = "Model Average")
Когда рассматривается несколько моделей, байесовская модель представляет собой полную иерархическую структуру, охватывающую все сравниваемые модели.Таким образом, наиболее полное апостериорное предсказание учитывает все модели, взвешенные по их апостериорным вероятностям. То есть прогнозирование осуществляется путем взятия среднего взвешенного по моделям с весами, равными апостериорным вероятностям моделей. Это модель с усреднением .
Пример 10.2 Предположим, я снова выбираю монету, но теперь нужно решить, честная ли монета. Допустим, мы рассматриваем две модели
- Модель «Должно быть справедливой»: предварительное распределение для \ (\ theta \) — Beta (500, 500)
- Модель «Все возможно»: предварительное распределение для \ (\ theta \) — Beta (1, 1)
- Предположим, мы наблюдаем 15 орлов в 20 флипах.Используйте моделирование, чтобы аппроксимировать фактор Байеса в пользу модели «должно быть справедливо», учитывая 15 орлов за 20 подбрасываний. Какая модель отдает предпочтение байесовскому фактору?
- Предположим, мы наблюдаем 11 орлов в 20 флипах. Используйте моделирование для аппроксимации байесовского фактора в пользу модели «должно быть справедливо» с учетом 11 решек за 20 подбрасываний. Какая модель отдает предпочтение байесовскому фактору?
- Модель «все возможно» имеет любое доступное значение, включая 0,5 и долю выборки 0.55. Почему же тогда в предыдущей части отдается предпочтение варианту «должно быть справедливо»?
Выборочная пропорция 15/20 = 0,75 не кажется совместимой с моделью «должно быть справедливо», поэтому мы ожидаем, что байесовский фактор будет благоприятствовать модели «все возможное».
Для аппроксимации вероятности выпадения 15 орлов в 20 флипах для модели «должно быть справедливо»
- Имитация значения \ (\ theta \) из распределения Beta (500, 500)
- Для данного \ (\ theta \) смоделировать значение \ (y \) из биномиального (20, \ (\ theta \)) распределения
- Многократное повторение и пропорция смоделированных повторений, которая дает \ (y \) 15.
Аналогичным образом оценивают вероятность выпадения 15 орлов за 20 подбрасываний для модели «все возможно». Фактор Байеса — это отношение вероятностей, около 0,323 в пользу модели «должно быть справедливо». То есть байесовский фактор отдает предпочтение модели «все возможно».
Nrep = 1000000 theta1 = rbeta (Nrep, 500, 500) y1 = rbinom (Nrep, 20, theta1) theta2 = rbeta (Nrep, 1, 1) y2 = rbinom (Nrep, 20, theta2) сумма (y1 == 15) / сумма (y2 == 15)
## [1] 0.3219374
Аналогично предыдущей части, но с другими данными. Фактор Байеса составляет около 3,34. Таким образом, байесовский фактор отдает предпочтение модели «должно быть справедливо».
сумма (y1 == 11) / сумма (y2 == 11)
## [1] 3.343126
Центральный 99% априорный вероятный интервал для \ (\ theta \), основанный на модели «должно быть справедливо», составляет (0,459, 0,541), который не включает долю выборки 0,55. Таким образом, вы можете подумать, что данные будут в пользу модели «все возможно».Однако числитель и знаменатель в байесовском факторе равны , среднее значение правдоподобий: вероятность усреднения данных по каждому возможному значению \ (\ theta \). Модель «должен быть справедливой» дает начальную правдоподобность только тем значениям \ (\ theta \), которые близки к 0,5, и для таких значений \ (\ theta \) вероятность выпадения 11 решек за 20 бросков не так уж мала. Значения \ (\ theta \), которые далеки от 0,5, фактически не включаются в среднее значение из-за их низкой априорной вероятности, поэтому средняя вероятность не так мала.
Напротив, модель «все возможно» распространяет априорную вероятность на все значения в (0, 1). Для многих значений \ (\ theta \) в (0, 1) вероятность наблюдения 11 орлов при 20 подбрасывании близка к 0, а с равномерным (0, 1) до каждого из этих значений \ (\ theta \) в равной степени способствует средней вероятности. Таким образом, средняя вероятность меньше для модели «все возможно», чем для модели «должно быть справедливо».
Сложные модели обычно имеют неотъемлемое преимущество перед более простыми моделями, потому что для сложных моделей доступно гораздо больше вариантов, и один из этих вариантов, вероятно, лучше соответствует данным, чем любой из меньшего количества вариантов в более простой модели.Однако мы не всегда хотим выбирать более сложную модель. Всегда выбор более сложной модели превышает данные.
Сравнение байесовских моделей естественным образом компенсирует расхождения в сложности моделей. В более сложных моделях априорные вероятности разбавляются множеством доступных вариантов. Даже если сложная модель имеет некоторую конкретную комбинацию параметров, которая хорошо соответствует данным, априорная вероятность этой конкретной комбинации, вероятно, будет небольшой, потому что априорная вероятность распределена более тонко, чем для более простой модели.Таким образом, при сравнении байесовских моделей более простая модель может «выиграть», если данные согласуются с ней, даже если сложная модель хорошо подходит.
Пример 10.3 Продолжая Пример 10.2, где мы рассмотрели две модели
- Модель «Должно быть справедливой»: предварительное распределение для \ (\ theta \) — Beta (500, 500)
- Модель «Все возможно»: предварительное распределение для \ (\ theta \) — Beta (1, 1)
Предположим, мы наблюдаем 65 орлов в 100 флипах.
Используйте моделирование для аппроксимации байесовского фактора в пользу модели «должно быть справедливо», учитывая 65 орлов на 100 бросков. Какая модель отдает предпочтение байесовскому фактору?
Мы обсудили различные понятия «неинформативный / расплывчатый» априори. Мы часто думаем о Beta (1, 1) = Uniform (0, 1) как о неинформативном априоре, но есть и другие соображения. В частности, бета (0,01, 0,01) часто используется как неинформативный априор в этом контексте.Думайте о предшествующей бета-версии (0,01, 0,01) как о приближении к неправильной предшествующей бета-версии (0, 0), основанной на «отсутствии предыдущих успехов или неудач».
Предположим, что модель «все возможно» соответствует априорному распределению Beta (0,01, 0,01) для \ (\ theta \). Используйте моделирование, чтобы аппроксимировать фактор Байеса в пользу модели «должно быть справедливо», учитывая 65 орлов за 100 бросков. Какая модель отдает предпочтение байесовскому фактору? Является ли выбор модели чувствительным к изменению предварительного распределения в рамках модели «все возможно»?
Для каждого из двух априорных значений «все возможно» найдите апостериорное распределение \ (\ theta \) и 95% апостериорный вероятный интервал для \ (\ theta \) при 65 орлах за 100 флипов.Является ли оценка для \ (\ theta \) в рамках модели «все возможно» чувствительной к изменению в предыдущем распределении для \ (\ theta \)?
Моделирование аналогично предыдущему примеру, только с другими данными. Фактор Байеса составляет около 0,126 в пользу модели «должно быть справедливо». Таким образом, байесовский фактор отдает предпочтение модели «все возможно».
Nrep = 1000000 theta1 = rbeta (Nrep, 500, 500) y1 = rbinom (Nrep, 100, theta1) theta2 = rbeta (Nrep, 1, 1) y2 = rbinom (Nrep, 100, theta2) сумма (y1 == 65) / сумма (y2 == 65)
## [1] 0.1261217
Симуляция аналогична модели в предыдущей части, только с другим предыдущим. Фактор Байеса составляет около 5,73 в пользу модели «должно быть справедливо». Таким образом, байесовский фактор отдает предпочтение модели «должно быть справедливо». Несмотря на то, что существуют неинформативные априорные значения, бета (1, 1) и бета (0,01, 0,01) априорные значения приводят к очень разным байесовским факторам и решениям. Выбор модели действительно кажется чувствительным к выбору предшествующего распределения.
Nrep = 1000000 theta1 = rbeta (Nrep, 500, 500) y1 = rbinom (Nrep, 100, theta1) тета2 = rбета (Nrep, 0,01, 0,01) y2 = rbinom (Nrep, 100, theta2) сумма (y1 == 65) / сумма (y2 == 65)
## [1] 6.105528
Для предшествующего бета (1, 1) апостериорная часть \ (\ theta \) с учетом 65 орлов за 100 переворотов является бета-распределением (66, 36), а центральный 95% апостериорный вероятный интервал для \ (\ theta \) равно (0.552, 0,736). Для предшествующего бета (0,01, 0,01) апостериорная часть \ (\ theta \) с учетом 65 орлов за 100 переворотов является распределением бета (65,01, 35,01) и центральным 95% апостериорным вероятным интервалом для \ (\ theta \). равно (0,554, 0,740). Распределения Beta (66, 36) и Beta (65.01, 35.01) практически идентичны, а 95% вероятные интервалы практически одинаковы. По крайней мере, в этом случае оценка для \ (\ theta \) в рамках модели «все возможно» не кажется чувствительной к выбору априорного значения.
кбета (с (0,025, 0,975), 1 + 65, 1 + 35)
## [1] 0,5522616 0,7363926
qбета (с (0,025, 0,975), 0,01 + 65, 0,01 + 35)
## [1] 0,5543477 0,7399105
В байесовской оценке непрерывных параметров в модели апостериорное распределение обычно не слишком чувствительно к изменениям в априорном (при условии, что имеется достаточный объем данных и априорное распределение не слишком строгое).
Напротив, в байесовском сравнении моделей апостериорные вероятности моделей и байесовские факторы могут быть чрезвычайно чувствительны к выбору априорного распределения в каждой модели.
При сравнении различных моделей необходимо одинаково информировать априорные распределения параметров в каждой модели. Одна из стратегий заключается в использовании небольшого набора «обучающих данных» для информирования априорной информации каждой модели перед сравнением.
Пример 10.4 Продолжая пример 10.3, где мы рассмотрели два априорных значения в модели «все возможно»: бета (1, 1) и бета (0,1, 0,1). Мы снова сравним модель «все возможно» с моделью «должно быть справедливо», которая соответствует предыдущей бета-версии (500, 500).
Предположим, мы наблюдаем 65 орлов в 100 флипах.
- Предположим, что модель «все возможно» соответствует предыдущей бета (1, 1). Предположим, что в первых 10 флипах выпало 6 решек. Вычислите апостериорное распределение \ (\ theta \) в каждой из моделей после первых 10 переворотов.Затем используйте моделирование для аппроксимации байесовского фактора в пользу модели «должно быть справедливо» при 65 головах за 100 переворотов, используя апостериорное распределение \ (\ theta \) после первых 10 переворотов в качестве априорного распределения в моделировании. Какая модель отдает предпочтение байесовскому фактору?
- Повторите предыдущую часть, предполагая, что модель «все возможно» соответствует предыдущей бета-версии (0,01, 0,01). Сравните с предыдущей частью.
При бета (1, 1) предшествующем в модели «все возможно», апостериорное распределение \ (\ theta \) после 6 решек в первых 10 бросках является бета-распределением (7, 5). В случае бета-версии (500, 500) в модели «должно быть справедливо», апостериорное распределение \ (\ theta \) после 6 решек в первых 10 бросках является бета-распределением (506, 504). Моделирование для аппроксимации правдоподобия в каждой модели аналогично предыдущему, но теперь мы моделируем \ (\ theta \) по его апостериорному распределению после первых 10 переворотов и оцениваем вероятность наблюдения 59 орлов в оставшихся 90 сальто.Фактор Байеса составляет около 0,056 в пользу модели «должно быть справедливо». Таким образом, байесовский фактор отдает предпочтение модели «все возможно».
Nrep = 1000000 theta1 = rbeta (Nrep, 500 + 6, 500 + 4) y1 = rbinom (Nrep, 90, theta1) theta2 = rbeta (Nrep, 1 + 6, 1 + 4) y2 = rbinom (Nrep, 90, theta2) сумма (y1 == 59) / сумма (y2 == 59)
## [1] 0,05554539
С бета-версией (0,01, 0.01) до модели «все возможно», апостериорное распределение \ (\ theta \) после 6 решек в первых 10 флипах является бета-распределением (6.01, 4.01). Симуляция аналогична предыдущей части, только с другим распределением для \ (\ theta \) в модели «все возможно». Фактор Байеса составляет около 0,057 в пользу модели «должно быть справедливо», примерно так же, как и в предыдущей части. Таким образом, байесовский фактор отдает предпочтение модели «все возможно». Обратите внимание, что после «обучения» моделей на первых 10 наблюдениях сравнение моделей уже не так чувствительно к выбору априорной модели в рамках модели «все возможно».
Nrep = 1000000 theta1 = rbeta (Nrep, 500 + 6, 500 + 4) y1 = rbinom (Nrep, 90, theta1) тета2 = рбета (Nrep, 0,01 + 6, 0,01 + 4) y2 = rbinom (Nrep, 90, theta2) сумма (y1 == 59) / сумма (y2 == 59)
## [1] 0,05444803
Пример 10,5 Рассмотрим проверку значимости нулевой гипотезы \ (H_0: \ theta = 0.5 \) по сравнению с \ (H_1: \ theta \ neq 0.5 \). Чем эта ситуация похожа на предыдущую проблему?
Решение. к Примеру 10.5Мы можем рассматривать это как проблему сравнения байесовских моделей. Нулевая гипотеза соответствует априорному распределению, которое помещает всю априорную вероятность на нулевое гипотетическое значение 0,5. Альтернативная гипотеза соответствует априорному распределению по всему диапазону возможных значений \ (\ theta \). Имея данные, мы могли бы вычислить апостериорную вероятность каждой модели и использовать ее для принятия решения относительно гипотез. Однако существует бесконечно много вариантов выбора априорной точки, соответствующей альтернативной гипотезе, и мы уже видели, что сравнение байесовских моделей может быть очень чувствительным к выбору априорной точки внутри модели.
Проверка значимости нулевой гипотезы может рассматриваться как проблема выбора байесовской модели, в которой одна модель имеет априорное распределение, которое полагается на значение нулевой гипотезы. Однако действительно ли возможно, что параметр точно равен предполагаемому значению?
К сожалению, подход к тестированию, основанный на сравнении моделей (фактор Байеса), может быть чрезвычайно чувствителен к выбору априорной гипотезы, соответствующей альтернативной гипотезе.
Альтернативный байесовский подход к тестированию включает выбор области практической эквивалентности (ROPE). ROPE указывает небольшой диапазон значений параметров, которые считаются практически эквивалентными нулевому предполагаемому значению.
- Предполагаемое значение отклоняется — то есть объявляется недостоверным — если его ВЕРЕВКА лежит за пределами 95% апостериорного вероятного интервала для параметра.
- Предполагаемое значение принимается для практических целей, если его ROPE содержит 95% апостериорный вероятный интервал для параметра.
Как выбрать ВЕРЕВКУ? Это определяет практическое применение.
В общем, традиционная проверка гипотез о нулевой точке (то есть « нет эффект / разница») не является главной задачей в байесовской статистике. Напротив, апостериорное распределение предоставляет всю необходимую информацию для принятия решений по практически значимым вопросам. Задайте исследовательские вопросы, которые важны в контексте проблемы, и используйте апостериорное распределение, чтобы ответить на них.
Глава 7 Выбор байесовской модели
В разделе 6.3 главы 6 мы провели байесовский анализ когнитивных показателей ребенка с использованием множественной линейной регрессии. Мы обнаружили, что несколько вероятных интервалов коэффициентов содержат ноль, что позволяет предположить, что мы потенциально можем упростить модель. В этой главе мы обсудим выбор модели, неопределенность модели и усреднение модели. Выбор байесовской модели заключается в выборе переменных для множественной линейной регрессии на основе байесовского информационного критерия или BIC.2 \). Здесь мы возьмем байесовские перспективы. Мы собираемся обсудить выбор байесовской модели с использованием байесовского информационного критерия, или BIC. BIC является одним из байесовских критериев, используемых для выбора байесовской модели, и, как правило, является одним из самых популярных критериев.
Определение BIC
Байесовский информационный критерий, BIC, определен как
.\ [\ begin {уравнение} \ text {BIC} = -2 \ ln (\ widehat {\ text {правдоподобие}}) + (p + 1) \ ln (n). \ tag {7.1} \ end {Equation} \]
Здесь \ (n \) — количество наблюдений в модели, а \ (p \) — количество предикторов.2 \) — это дисперсия предполагаемого нормального распределения члена ошибки \ (\ epsilon_i \). В общем, для любой модели \ (M \) мы можем записать вероятность этой модели как функцию параметра \ (\ boldsymbol {\ theta} \) (\ (\ boldsymbol {\ theta} \) может быть вектором нескольких параметров) и модель \ (M \) \ [\ text {правдоподобие} = p (\ text {data} ~ | ~ \ boldsymbol {\ theta}, M) = \ mathcal {L} (\ boldsymbol {\ theta}, M). \] Если функция правдоподобия \ (\ mathcal {L} (\ boldsymbol {\ theta}, M) \) достаточно хороша (скажем, у нее есть локальный максимум), максимальное значение правдоподобия \ (\ widehat {\ text {правдоподобие }} \), может быть достигнуто некоторым специальным значением параметра \ (\ boldsymbol {\ theta} \), обозначенным как \ (\ hat {\ boldsymbol {\ theta}} \) \ [\ widehat {\ text {правдоподобие}} = p (\ text {data} ~ | ~ \ hat {\ boldsymbol {\ theta}}, M) = \ mathcal {L} (\ hat {\ boldsymbol {\ theta }}, M).\]
Это вероятность, которая определяет BIC.
Когда размер выборки \ (n \) достаточно велик, а распределение данных принадлежит экспоненциальному семейству, например, нормальному распределению, BIC может быть приблизительно равен -2-кратной вероятности того, что данные получены в соответствии с моделью \ (M \):
\ [\ begin {уравнение} \ text {BIC} \ приблизительно -2 \ ln (p (\ text {data} ~ | ~ M)) = -2 \ ln \ left (\ int p (\ text {data} ~ | ~ \ boldsymbol {\ theta }, M) p (\ boldsymbol {\ theta} ~ | ~ M) \, d \ boldsymbol {\ theta} \ right), \ qquad \ quad \ text {, когда $ n $ велико.} \ tag {7.2} \ end {Equation} \]
Здесь \ (p (\ boldsymbol {\ theta} ~ | ~ M) \) — априорное распределение параметра \ (\ boldsymbol {\ theta} \). Мы не будем вдаваться в подробности, почему это приближение справедливо и как мы выполняем интегрирование в этой книге. Однако мы хотели напомнить читателям, что, поскольку BIC может быть аппроксимирован априорным распределением параметра \ (\ boldsymbol {\ theta} \), мы увидим позже, как мы используем BIC для аппроксимации вероятности модели в соответствии с априорной ссылкой. 2) + (p + 1) \ ln (n) + \ text {constant}, \ tag {7.2 \) означает лучшее соответствие данных, слишком большое количество предикторов может привести к переобучению данных. Следовательно, второй член \ ((p + 1) \ ln (n) \) добавляется в выражение BIC, чтобы наказать модели со слишком большим количеством предикторов. При увеличении \ (p \) увеличивается и второй член. Это обеспечивает компромисс между степенью соответствия, определяемой первым членом, и сложностью модели, представленной вторым членом.
Обратное исключение с BIC
Мы будем использовать набор данных о когнитивных способностях ребенка когнитивные
в качестве примера.Сначала мы считываем набор данных с веб-сайта Гельмана и преобразуем типы данных двух переменных: mom_work
и mom_hs
, как мы сделали в Разделе 6.3.
# Загрузить библиотеку для чтения данных с сайта
библиотека (иностранная)
# Чтение набора данных когнитивной оценки и преобразование данных в процесс
когнитивный = read.dta ("http://www.stat.columbia.edu/~gelman/arm/examples/child.iq/kidiq.dta")
когнитивный $ mom_work = as.numeric (когнитивный $ mom_work> 1)
когнитивный $ mom_hs = as.числовой (когнитивный $ mom_hs> 0)
colnames (когнитивный) = c ("kid_score", "hs", "IQ", "work", "age")
Начнем с полной модели со всеми возможными предикторами: hs
, IQ
, work
и age
. Мы будем отбрасывать по одной переменной и записывать все BIC. Затем мы выберем модель с наименьшим BIC. Мы будем повторять этот процесс до тех пор, пока ни одна из моделей не приведет к снижению BIC. Мы используем функцию step
в R, чтобы выполнить выбор модели BIC.Обратите внимание, что значение по умолчанию для аргумента k
в функции шага
составляет k = 2
, что соответствует оценке AIC. Для BIC k
должно быть log (n)
соответственно.
# Вычислить общее количество наблюдений
n = nrow (когнитивный)
# Полная модель с использованием всех предикторов
cog.lm = lm (kid_score ~., данные = когнитивные)
# Выполните удаление BIC из полной модели
# k = log (n): штраф за BIC, а не за AIC
cog.step = шаг (cog.lm, k = log (n))
## Начало: AIC = 2541.07
## kid_score ~ HS + IQ + работа + возраст
##
## Df Сумма квадратов RSS AIC
## - 1 возраст 143,0 141365 2535,4
## - работа 1 383,5 141605 2536,2
## - HS 1 1595.1 142817 2539.9
## <нет> 141222 2541.1
## - IQ 1 28219,9 169441 2614,1
##
## Шаг: AIC = 2535,44
## kid_score ~ hs + IQ + work
##
## Df Сумма квадратов RSS AIC
## - работа 1 392,5 141757 2530,6
## - HS 1 1845,7 143210 2535,0
## <нет> 141365 2535,4
## - IQ 1 28381.9 169747 2608,8
##
## Шаг: AIC = 2530,57
## kid_score ~ hs + IQ
##
## Df Сумма квадратов RSS AIC
## <нет> 141757 2530,6
## - чс 1 2380,2 144137 2531,7
## - IQ 1 28504,1 170261 2604,0
В сводной таблице AIC
следует интерпретировать как BIC, поскольку мы решили использовать выражение BIC, где \ (k = \ ln (n) \).
На основе полной модели мы прогнозируем когнитивные показатели ребенка на основе статуса матери в средней школе, показателя IQ матери, статуса матери на работе и возраста матери.BIC для полной модели — 2541,1.
На первом этапе мы пытаемся удалить каждую переменную из полной модели, чтобы записать полученный новый BIC. Из сводной статистики мы видим, что удаление переменной age
приводит к наименьшему BIC. Но если мы попытаемся отбросить переменную IQ
, это увеличит BIC, что означает, что IQ
будет действительно важным предиктором kid_score
. Сравнивая все результаты, на первом этапе отбрасываем переменную age
.После удаления возраста
новый BIC равен 2535,4.
На следующем шаге мы видим, что удаление переменной
работы приведет к самому низкому BIC, который составляет 2530,6. Теперь модель стала
\ [\ text {оценка} \ sim \ text {hs} + \ text {IQ} \]
Наконец, когда мы попытаемся отбросить hs
или IQ
, это приведет к более высокому BIC, чем 2530,6. Это говорит о том, что мы достигли лучшей модели. Эта модель прогнозирует когнитивные показатели ребенка на основе школьного статуса матери и ее IQ.2 \) или AIC.
Мы также можем использовать пакет BAS
, чтобы найти лучшую модель BIC без пошагового обратного процесса.
# Импортировать библиотеку
библиотека (BAS)
# Используйте `bas.lm` для запуска регрессионной модели
cog.BIC = bas.lm (kid_score ~., data = когнитивный,
Prior = "BIC", modelprior = uniform ())
винтик.BIC
##
## Вызов:
## bas.lm (формула = kid_score ~., data = когнитивный, Prior = "BIC",
## modelprior = uniform ())
##
##
## Маргинальные апостериорные вероятности включения:
## Intercept hs IQ рабочий возраст
## 1.00000 0,61064 1,00000 0,11210 0,06898
Здесь мы устанавливаем аргумент modelprior
как uniform ()
, чтобы присвоить равную априорную вероятность каждой возможной модели.
Информация logmarg
внутри сводного списка cog.BIC
записывает журнал предельной вероятности каждой модели после просмотра данных \ (\ ln (p (\ text {data} ~ | ~ M)) \). Напомним, что это примерно пропорционально отрицательному BIC при большом размере выборки \ (n \).
\ [\ text {BIC} \ приблизительно -2 \ ln (p (\ text {data} ~ | ~ M)).\]
Мы можем использовать эту информацию для получения модели с наибольшим логарифмом предельного правдоподобия, которая соответствует модели с наименьшим BIC.
# Найдите индекс модели с наибольшим логарифмическим разбросом
best = which.max (cog.BIC $ logmarg)
# Получить индекс переменных в лучшей модели с 0 в качестве индекса точки пересечения
bestmodel = cog.BIC $ который [[лучший]]
лучшая модель
## [1] 0 1 2
# Создаем индикаторный вектор, указывающий, какие переменные используются в лучшей модели
# Сначала создайте вектор 0 с той же размерностью, что и количество переменных в полной модели
bestgamma = rep (0, винтик.BIC $ n.vars)
# Измените индикатор на 1, где используются переменные
bestgamma [bestmodel + 1] = 1
bestgamma
## [1] 1 1 1 0 0
Из индикаторного вектора bestgamma
мы видим, что только точка пересечения (с индексом 0), переменная статуса средней школы матери hs
(с индексом 1) и оценка IQ матери IQ
(с индексом 2) используются в лучшая модель, с единицами в соответствующих слотах 5-мерного вектора \ ((1, 1, 1, 0, 0) \).
Предварительные оценки коэффициентов для лучшей модели BIC
Лучшая модель BIC \ (M \) может быть создана следующим образом, и мы приняли соглашение о «центрированной» модели для удобного анализа. \ [y _ {\ text {score}, i} = \ beta_0 + \ beta_1 (x _ {\ text {hs}, i} — \ bar {x} _ {\ text {hs}, i}) + \ beta_2 ( x _ {\ text {IQ}, i} — \ bar {x} _ {\ text {IQ}}) + \ epsilon_i, \ qquad \ quad i = 1, \ cdots, n \]
Мы хотели бы получить апостериорные распределения коэффициентов \ (\ beta_0 \), \ (\ beta_1 \) и \ (\ beta_2 \) в рамках этой модели.2 ~ | ~ M) \) становится все более и более плоским, что можно приблизительно оценить по предыдущей ссылке. В то же время журнал предельного правдоподобия \ (\ ln (p (\ text {data} ~ | ~ M)) \) может быть аппроксимирован BIC. Следовательно, мы используем Prior = "BIC"
в функции bas.lm
, когда мы используем BIC в качестве аппроксимации журнала предельного правдоподобия по исходной ссылке. Апостериорное среднее значение \ (\ beta_0 \) в результате представляет собой выборочное среднее когнитивных показателей детей, или \ (\ bar {Y} _ {\ text {score}} \), поскольку мы центрировали модель.
# Подобрать лучшую модель BIC, указав, какие переменные будут использоваться с помощью индикаторов
cog.bestBIC = bas.lm (kid_score ~., data = когнитивный,
Prior = "BIC", n.models = 1, # Подходит только 1 модель
bestmodel = bestgamma, # Мы используем bestgamma для обозначения переменных
modelprior = uniform ())
# Получить информацию о коэффициентах
cog.coef = coef (cog.bestBIC)
# Получить границы вероятных интервалов
out = confint (cog.coef) [, 1: 2]
# Объединить результаты и построить сводную таблицу
коэф.BIC = cbind (cog.coef $ postmean, cog.coef $ postsd, out)
names = c ("означает сообщение", "сообщение SD", имена столбцов (выход))
colnames (coef.BIC) = имена
coef.BIC
## средний пост SD 2,5% 97,5%
## Перехват 86.797235 0.87054033 85.0862025 88.5082675
## hs 5.950117 2.21181218 1.6028370 10.2973969
## IQ 0,563906 0,06057408 0,4448487 0,6829634
## работа 0.000000 0.00000000 0. 2 \), используется форма
\ [-2 \ ln (\ widehat {\ text {правдоподобие}}) + (p + 1) \ times \ text {некоторая константа}, \]
где \ (p \) - количество переменных-предикторов, а «некоторая константа» - постоянное значение, зависящее от различных критериев.2 \) могут включать переменные, которые не являются статистически значимыми, но могут лучше подходить для прогнозов.
Другие решения о выборе байесовской модели могут быть основаны на выборе моделей с наивысшей апостериорной вероятностью. Если прогнозы важны, мы можем использовать теорию принятия решений, чтобы выбрать модель с наименьшей ожидаемой ошибкой прогноза. Помимо точности подгонки и экономичности, важное значение могут иметь функции потерь, которые включают затраты, связанные со сбором переменных для прогнозных моделей.
Неопределенность байесовской модели
В последнем разделе мы обсудили, как использовать байесовский информационный критерий (BIC), чтобы выбрать лучшую модель, и продемонстрировали этот метод на наборе данных о когнитивных показателях ребенка. Однако часто у нас может быть несколько моделей с похожим BIC. Если мы выберем только модель с самым низким BIC, мы можем игнорировать наличие других моделей, которые также хороши или могут предоставить полезную информацию. Вероятные интервалы коэффициентов могут быть уже, поскольку неопределенность игнорируется, когда мы рассматриваем только одну модель.Более узкие интервалы не всегда лучше, если они не соответствуют истинным значениям параметров. Чтобы учесть неопределенность, необходимо получить апостериорную вероятность всех возможных моделей. В этом разделе мы поговорим о том, как преобразовать BIC в байесовский фактор, чтобы найти апостериорную вероятность всех возможных моделей. Мы снова будем использовать пакет BAS
в R для достижения этой цели.
Неопределенность модели
При прогнозировании траектории урагана точный прогноз и измерение неопределенности важны для раннего предупреждения.В этом случае мы бы рассмотрели вероятность нескольких потенциальных путей, по которым ураган может обрушиться на сушу. Подобно прогнозированию ураганов, мы также хотели бы получить апостериорную вероятность всех возможных моделей для измерения неопределенности.
Чтобы представить неопределенность модели, нам нужно построить распределение вероятностей по всем возможным моделям, где каждая вероятность обеспечивает меру того, насколько вероятно, что модель произойдет.
Предположим, у нас есть множественная линейная регрессия.
\ [y_i = \ beta_0 + \ beta_1 (x_ {1, i} - \ bar {x} _1) + \ beta_2 (x_ {2, i} - \ bar {x} _2) + \ cdots + \ beta_p (x_ {p , i} - \ bar {x} _p) + \ epsilon_i, \ quad 1 \ leq i \ leq n, \]
с переменными-предикторами \ (p \) \ (x_1, \ cdots, x_p \).п\). Чтобы получить апостериорную вероятность каждой модели \ (p (M_m ~ | ~ \ text {data}) \), правило Байеса говорит, что нам нужно присвоить априорную вероятность \ (p (M_m) \) каждой модели, и затем получить предельную вероятность каждой модели \ (p (\ text {data} ~ | ~ M_m) \). По правилу Байеса мы обновляем апостериорную вероятность каждой модели \ (M_m \) после просмотра даты через маргинальную вероятность модели \ (M_m \):
\ [\ begin {уравнение}
p (M_m ~ | ~ \ text {data}) = \ frac {\ text {предельная вероятность} M_m \ times p (M_m)} {\ sum_ {j = 1} ^ {2 ^ p} \ text {предельная вероятность of} M_j \ times p (M_j)} = \ frac {p (\ text {data} ~ | ~ M_m) p (M_m)} {\ sum_ {j = 1} ^ {2 ^ p} p (\ text { данные} ~ | ~ M_j) p (M_j)}.p} p (\ text {data} ~ | ~ M_j) p (M_j) \), чтобы получить апостериорную вероятность каждой модели.
Напомним, что априорный коэффициент между двумя моделями \ (M_1 \) и \ (M_2 \) определен равным
\ [
\ textit {O} [M_1: M_2] = \ frac {p (M_1)} {p (M_2)},
\]
а байесовский фактор определяется как отношение правдоподобия двух моделей
\ [\ textit {BF} [M_1: M_2] = \ frac {p (\ text {data} ~ | ~ M_1)} {p (\ text {data} ~ | ~ M_2)}. \]
Предположим, мы выбрали базовую модель \ (M_b \), мы можем разделить как числитель, так и знаменатель формулы (7.p} \ textit {BF} [M_j: M_b] \ times \ textit {O} [M_j: M_b]}.
\ end {выровнен}
\]
Любая модель может быть использована в качестве базовой модели \ (M_b \). Это может быть модель с наивысшей апостериорной вероятностью или нулевая модель \ (M_0 \) только с точкой пересечения \ (y_i = \ beta_0 + \ epsilon_i \).
Используя BIC, мы можем аппроксимировать байесовский фактор между двумя моделями с помощью их OLS \ (R \) - квадрата и количества предикторов, используемых в моделях, когда у нас есть большая выборка данных. 2 \) может быть выполнено с помощью обычной линейной регрессии OLS.Напомним, что в разделе 7.1 мы предоставили тот факт, что BIC любой модели \ (M_m \) (обозначается как \ (\ text {BIC} _m \)) является асимптотической аппроксимацией журнала предельной вероятности \ (M_m \) когда размер выборки \ (n \) большой (уравнение (7.2))
\ [\ text {BIC} _m \ приблизительно -2 \ ln (\ text {предельное правдоподобие}) = -2 \ ln (p (\ text {data} ~ | ~ M_m)). \]
Используя этот факт, мы можем аппроксимировать байесовский фактор между двумя моделями по их BIC.
\ [\ textit {BF} [M_1: M_2] = \ frac {p (\ text {data} ~ | ~ M_1)} {p (\ text {data} ~ | ~ M_2)} \ приблизительно \ frac {\ exp (- \ text {BIC} _1 / 2)} {\ exp (- \ text {BIC} _2 / 2)} = \ exp \ left (- \ frac {1} {2} (\ text {BIC} _1- \ text {BIC} _2) \ right).{\ frac {p_m} {2}}. \]
Расчет апостериорной вероятности в R
Возвращаясь к примеру с когнитивной оценкой ребенка, мы увидим, как сводка результатов с использованием bas. 4 \)) моделей, где каждая вероятность \ (p (M_m) \) обеспечивает меру того, насколько вероятна модель \ (M_m \).Внутри функции bas.lm
мы сначала указываем полную модель, которой в данном случае является kid_score
, регрессируемая по всем предикторам: статус матери в средней школе hs
, IQ матери IQ
, статус работы матери работа
и возраст матери возраст
. В следующем аргументе мы берем данных = когнитивный
. Для априорного распределения коэффициентов для расчета предельного правдоподобия мы используем prior = "BIC"
для аппроксимации предельного правдоподобия \ (p (\ text {data} ~ | ~ M_m) \).Затем мы используем modelprior = uniform ()
в аргументе, чтобы назначить равную априорную вероятность \ (p (M_m), \ m = 1, \ cdots, 16 \) для всех 16 моделей. То есть \ (\ displaystyle p (M_m) = \ frac {1} {16} \).
# Импортировать библиотеку
библиотека (BAS)
# Используйте `bas.lm` для регрессии
cog_bas = bas.lm (kid_score ~ HS + IQ + работа + возраст,
данные = когнитивный, предыдущий = "BIC",
modelprior = uniform ())
cog_bas
- объект bas
. Обычный print
, summary
, plot
, coef
, fit
, прогнозировать
функции доступны и могут использоваться на объектах bas
, аналогичных объектам lm
, созданным обычным lm
функция.По телефону
## [1] "probne0" "which" "logmarg" "postprobs"
## [5] "priorprobs" "sampleprobs" "mse" "mle"
## [9] "mle.se" "усадка" "размер" "R2"
## [13] "rank" "rank_deficient" "n.models" "namesx"
## [17] «n» «до» «до модели» «альфа»
## [21] "probne0.RN" "postprobs.RN" "include.always" "df"
## [25] "сущ.vars "" Y "" X "" mean.x "
## [29] "вызов" "xlevels" "условия" "модель"
можно увидеть результаты и анализ, которые мы можем извлечь из объекта bas
.
Объект bas
принимает метод сводки
раунд (сводка (cog_bas), 3)
## P (B! = 0 | Y) модель 1 модель 2 модель 3 модель 4 модель 5
## Перехват 1.000 1.000 1.000 1.000 1.000 1.000
## hs 0.611 1.000 0.000 0.000 1.000 1.000
## IQ 1.000 1.000 1.000 1.000 1.000 1.000
## работа 0.112 0.000 0.000 1.000 1.000 0.000
## возраст 0,069 0,000 0,000 0,000 0,000 1,000
## BF NA 1.000 0.562 0.109 0.088 0.061
## PostProbs NA 0,529 0,297 0,058 0.046 0,032
## R2 NA 0,214 0,201 0,206 0,216 0,215
## тусклый NA 3.000 2.000 3.000 4.000 4.000
## logmarg NA -2583.135 -2583.712 -2585.349 -2585.570 -2585.939
Сводная таблица показывает нам следующую информацию о 5 лучших моделях
P (B! = 0 | Y)
Апостериорная вероятность включения (пункт) каждого коэффициента по данным \ (Y \) 0
или 1
в столбце индикатор того, включена ли переменная в модель BF
Байесовский фактор \ (\ textit {BF} [M_m: M_b] \), где \ (M_b \) - модель с наивысшей апостериорной вероятностью PostProbs
Апостериорная вероятность каждой модели R2
\ (R \) - квадрат в обычной регрессии наименьших квадратов (OLS) размер
Количество переменных (включая точку пересечения), включенных в модель логарифм
Логарифм предельного правдоподобия модели, который приблизительно равен \ (- \ displaystyle \ frac {1} {2} \ text {BIC} \)
Все топ-5 моделей предлагают исключить переменную возраст
и включить переменную IQ
.Первая модель включает точку пересечения \ (\ beta_0 \) и только hs
и IQ
с апостериорной вероятностью около 0. Модель со второй по величине апостериорной вероятностью, которая включает только точку пересечения и переменную IQ
, имеет апостериорную вероятность около 0. Эти две модели составляют полную апостериорную вероятность около 0, оставляя только 1 апостериорную вероятность для остальных 14 моделей.
Используя метод print
, мы получаем маргинальную апостериорную вероятность включения (pip) \ (p (\ beta_j \ neq 0) \) каждой переменной \ (x_j \).
##
## Вызов:
## bas.lm (формула = kid_score ~ hs + IQ + работа + возраст, данные = когнитивные,
## Prior = "BIC", modelprior = uniform ())
##
##
## Маргинальные апостериорные вероятности включения:
## Intercept hs IQ рабочий возраст
## 1.00000 0.61064 1.00000 0.11210 0.06898
Усреднение байесовской модели
В последнем разделе мы исследовали неопределенность модели, используя апостериорную вероятность моделей, основанных на BIC. В этом разделе мы продолжим пример когнитивной оценки ребенка, чтобы увидеть, как получить байесовскую модель, усредняя результаты с использованием апостериорной вероятности модели.
Визуализация неопределенности модели
Напомним, что в предыдущем разделе мы использовали функцию bas.lm
в пакете BAS
для получения апостериорной вероятности всех моделей в примере когнитивной оценки ребенка.
\ [\ text {score} ~ \ sim ~ \ text {hq} + \ text {IQ} + \ text {work} + \ text {age} \]
Мы нашли апостериорное распределение при неопределенности модели, используя все возможные комбинации предикторов, статус матери в средней школе hs
, показатель IQ матери IQ
, работала ли мать в течение первых трех лет жизни ребенка работа
, а возраст матери - лет, возраст -
год.р \) возможные модели.
Мы также можем визуализировать неопределенность модели из объекта bas
cog_bas
, который мы сгенерировали в предыдущем разделе.
В R функция изображения может использоваться для создания изображения пространства модели, которое выглядит как кроссворд.
изображение (cog_bas, rotate = F)
Чтобы получить более четкое представление для сравнения моделей, мы не поворачивали изображение. Здесь предикторы, включая точку пересечения, находятся на оси \ (y \), а ось \ (x \) соответствует каждой отдельной модели.Каждый вертикальный столбец соответствует одной модели. Для переменных, которые не включены в одну модель, они будут представлены черными блоками. Например, модель 1 включает перехват, hs
и IQ
, но не work
или age
. Эти модели упорядочены в соответствии с журналом апостериорного нечетного над нулевой моделью (модель только с точкой пересечения). Логарифм апостериорного нечетного рассчитывается как
\ [\ ln (\ textit {PO} [M_m: M_0]) = \ ln (\ textit {BF} [M_m: M_0] \ times \ textit {O} [M_m: M_0]).\]
Поскольку мы предполагаем одинаковую априорную вероятность для всех моделей, \ (\ text {O} [M_m: M_0] = 1 \) и, следовательно, логарифм апостериорного нечетного совпадает с логарифмом байесовского фактора. Цвет каждого столбца пропорционален логарифму апостериорной вероятности. Модели с одинаковыми цветами имеют похожие апостериорные вероятности. Это позволяет нам просматривать сгруппированные вместе модели, когда различия внутри кластера не заслуживают упоминания.
Если мы рассмотрим изображение по строкам, мы сможем увидеть, включена ли одна переменная в конкретную модель.Для каждой переменной есть только 8 моделей, в которых она появится. Например, мы видим, что IQ
присутствует во всех 8 лучших моделях с большей апостериорной вероятностью, но не в последних 8 моделях. Функция image
по умолчанию отображает до 20 моделей.
Усреднение байесовской модели с использованием апостериорной вероятности
После того, как мы получили апостериорную вероятность каждой модели, мы можем сделать вывод и получить средневзвешенные значения представляющих интерес величин, используя эти вероятности в качестве весов.p} p (\ Delta ~ | ~ M_j, \ \ text {data}) p (M_j ~ | ~ \ text {data}).
\ tag {7.6}
\ end {Equation} \]
Эта формула аналогична той, которую мы видели в лекции 2-й недели Прогнозирующий вывод , когда мы использовали апостериорную вероятность двух разных коэффициентов успеха получения орла при подбрасывании монеты для расчета прогнозируемой вероятности получения орла в будущей монете . переворачивает. Напомним, что в этом примере у нас есть две конкурирующие гипотезы, что вероятность успеха (также известная как вероятность) выпадения орла при подбрасывании монеты равна
\ [H_1: p = 0.* = 0,246.
\ end {выровнен}
\]
Мы можем использовать эти две вероятности для вычисления апостериорной вероятности выпадения орла при следующем подбрасывании монеты.
\ [\ begin {уравнение}
P (\ text {head} ~ | ~ \ text {data}) = P (\ text {head} ~ | ~ H_1, \ text {data}) P (H_1 ~ | ~ \ text {data}) + P ( \ text {head} ~ | ~ H_2, \ text {data}) P (H_2 ~ | ~ \ text {data}).
\ tag {7.7}
\ end {Equation} \]
Мы видим, что уравнение (7.7) является лишь частным случаем общего уравнения (7.6), когда апостериорная вероятность гипотез \ (P (H_1 ~ | ~ \ text {data}) \) и \ (P (H_2 ~ | ~ \ text {data}) \) служат весами.p} E [\ Delta ~ | ~ M_j, \ \ text {data}] p (M_j ~ | ~ \ text {data}). \]
Поскольку веса \ (p (M_j ~ | ~ \ text {data}) \) являются вероятностями и должны суммироваться до единицы, если бы лучшая модель имела апостериорную вероятность, равную единице, все веса были бы помещены в эту единственную лучшую модель. . В этом случае использование BMA было бы эквивалентно выбору лучшей модели с наивысшей апостериорной вероятностью. Однако, если существует несколько моделей, которые получают значительную вероятность, все они будут включены в вывод и учитывать неопределенность относительно истинной модели.
Сводка коэффициентов согласно BMA
Мы можем получить коэффициенты с помощью функции coef
.
cog_coef = coef (cog_bas)
cog_coef
##
## Маргинальные апостериорные сводки коэффициентов:
##
## Использование BMA
##
## На основе 16 лучших моделей
## post означает сообщение SD post p (B! = 0)
## Перехват 86,79724 0,87287 1,00000
## hs 3.59494 3.35643 0.61064
## IQ 0,58101 0.06363 1,00000
## работа 0,36696 1,30939 0,11210
## возраст 0,02089 0,11738 0,06898
При усреднении байесовской модели в приведенной выше таблице представлены апостериорное среднее, апостериорное стандартное отклонение и апостериорная вероятность включения (пипс) каждого коэффициента. Апостериорное среднее значение коэффициента \ (\ hat {\ beta} _j \) при BMA будет использоваться для будущих прогнозов. Апостериорное стандартное отклонение \ (\ text {se} _ {\ beta_j} \) обеспечивает меру изменчивости коэффициента \ (\ beta_j \).Приблизительный диапазон вероятных значений для каждого из коэффициентов может быть получен с помощью эмпирического правила
\ [(\ hat {\ beta} _j- \ text {критическое значение} \ times \ text {se} _ {\ beta_j}, \ \ hat {\ beta} _j + \ text {критическое значение} \ times \ text {se } _ {\ beta_j}). \]
Однако это применимо только в том случае, если апостериорное распределение является симметричным или унимодальным.
Апостериорное среднее значение точки пересечения, \ (\ hat {\ beta} _0 \), получается после центрирования переменных. Мы обсудили эффект центрирования модели.Одним из преимуществ этого является то, что точка пересечения \ (\ beta_0 \) представляет собой выборочное среднее наблюдаемого отклика \ (Y \). Согласно предыдущей ссылке, точечная оценка точки пересечения \ (\ hat {\ beta} _0 \) в точности равна среднему значению \ (\ bar {Y} \).
Мы видим, что апостериорное среднее, стандартное отклонение и вероятность включения немного отличаются от тех, которые мы получили в разделе 6.3, когда мы принудительно включили в модель все переменные. Согласно BMA, IQ
имеет апостериорную вероятность включения 1, что позволяет предположить, что очень вероятно, что IQ
следует включить в модель. hs
также имеет высокую вероятность апостериорного включения около 0,61. Однако апостериорная вероятность включения статуса матери работа
и возраста матери возраст
относительно невелика по сравнению с IQ
и hs
.
Мы также можем нанести на график
апостериорного распределения этих коэффициентов, чтобы более детально изучить распределения
номинал (mfrow = c (2, 2))
сюжет (cog_coef, subset = c (2: 5))
Этот график согласуется с итоговой таблицей, которую мы получили выше, которая показывает, что апостериорные распределения вероятностей работы
и возраст
имеют очень большую точечную массу в 0, в то время как распределение hs
имеет относительно небольшую массу в 0. .Для переменной IQ
есть небольшая подсказка на уровне 0, указывающая на то, что апостериорная вероятность включения IQ
не совсем 1. Однако, поскольку масса вероятности для IQ
равняется 0, настолько мала, что мы почти наверняка, что IQ
следует включить в усреднение байесовской модели.
Не говорите «неуместно». Скажите «негенеративная модель». «Статистическое моделирование, причинно-следственные связи и социальные науки
[изображение кошки]
В байесовском анализе данных мы пишем: «Обычно мы называем априорную плотность p (θ) собственно , если она не зависит от данных и интегрируется с 1.Это был шаг вперед от обычного понимания, согласно которому априорная плотность неуместна, если является бесконечным интегралом.
Но я не в восторге от термина «правильный», потому что он имеет разное значение для разных людей.
На днях я услышал, как Дэн Симпсон и Майк Бетанкур говорили о «непроизводящих моделях», и подумал: да! это идеальный термин! Во-первых, это однозначно: негенеративная модель - это модель, для которой невозможно сгенерировать данные.Во-вторых, здесь используется существующий термин «генеративная модель», следовательно, нет необходимости определять новое понятие «собственно априорное». В-третьих, это утверждение о модели в целом, а не только о предыдущей.
Я исследую идею генеративной или негенеративной модели на нескольких примерах:
Классическая модель идентификатора, y_i ~ normal (theta, 1), для i = 1,…, n. Это не является генеративным, потому что нет правила для генерации тэты.
Байесовская модель, y_i ~ normal (theta, 1), для i = 1,…, n, с однородной априорной плотностью, p (theta) пропорциональна 1 на действительной прямой.Это не является генеративным, потому что вы не можете нарисовать тэту из униформы на реальной линии.
Байесовская модель, y_i ~ normal (theta, 1), для i = 1,…, n, с априорными данными на основе данных, theta ~ normal (y_bar, 10), где y_bar - выборочное среднее y_1,…, y_n. Эта модель не является генеративной, потому что для генерации тэты вам нужно знать y, но вы не можете сгенерировать y, пока не познаете тэту.
Напротив, рассмотрим байесовскую модель, y_i ~ normal (theta, 1), для i = 1,…, n, с предшествующей моделью, не основанной на данных, theta ~ normal (0, 10).Это генеративно: вы берете тэту из предшествующей, а затем рисуете y с учетом тэты.
Некоторые тонкости все же возникают. Например, мы неявно обусловливаем n. Чтобы модель была полностью генеративной, нам также потребуется предварительное распределение для n.
Аналогично, чтобы регрессионная модель была полностью генеративной, необходимо предварительное распределение по x.
Непогенеративные модели находят свое применение; мы должны просто распознать, когда мы их используем. Я думаю, что традиционная классификация априорных, обозначающая их как неправильные, если они имеют бесконечный интеграл, не отражает ключевых аспектов проблемы.
П.С. Также актуален этот комментарий относительно обсуждения моделей для n:
Как и во многих других проблемах, я думаю, что мы получаем некоторую ясность, рассматривая существующую проблему как часть более крупной иерархической модели или метаанализа. Итак, если у нас есть регрессия с результатами y, предикторами x и размером выборки n, мы можем рассматривать это как одну из более широкого класса проблем, и в этом случае имеет смысл думать о n и x как о различных для разных задач.
Проблема не столько в том, является ли n «случайной величиной» в каком-либо конкретном исследовании (хотя я скажу, что в реальных исследованиях n обычно не определяется точно заранее), что связано с трудностями приема на работу, отсутствием ответа, отсевом, и т.п.), а скорее то, что n может варьироваться в зависимости от эталонного класса проблем, для которых подойдет модель.
Каталитические априорные распределения с применением к обобщенным линейным моделям
Значимость
Мы предлагаем стратегию построения априорных распределений, которые стабилизируют оценку сложных «рабочих моделей», когда размеры выборки слишком малы для стандартного статистического анализа. Стабилизация достигается путем дополнения наблюдаемых данных небольшим объемом синтетических данных, созданных на основе прогнозного распределения более простой модели.Этот класс априорных распределений прост в использовании и допускает прямую статистическую интерпретацию.
Abstract
Каталитическое предварительное распределение предназначено для стабилизации многомерной «рабочей модели» путем сжатия ее до «упрощенной модели». Уменьшение достигается путем дополнения наблюдаемых данных небольшим количеством «синтетических данных», созданных на основе прогнозного распределения в рамках более простой модели. Мы применяем эту структуру к обобщенным линейным моделям, где мы предлагаем различные стратегии для определения параметра настройки, определяющего степень усадки, и изучаем полученные теоретические свойства.При моделировании результирующая апостериорная оценка с использованием такой каталитической априорной оценки превосходит оценку максимального правдоподобия из рабочей модели и, как правило, сопоставима с существующими конкурентными методами или превосходит их с точки зрения точности частотного прогнозирования точечной оценки и точности охвата интервальной оценки. Каталитические приоритеты имеют простую интерпретацию и легко формулируются.
Априорное распределение - уникальная и важная особенность байесовского анализа, однако на практике может быть трудно количественно определить существующие знания в фактические априорные распределения; таким образом, может быть желательно автоматическое построение предыдущих распределений.Такие априорные распределения должны стабилизировать апостериорную оценку в ситуациях, когда максимальное правдоподобие ведет себя проблемно, что может произойти, когда размеры выборки малы по сравнению с размерностью моделей. Здесь мы предлагаем класс априорных дистрибутивов, предназначенных для решения таких ситуаций. В дальнейшем мы называем сложную модель, которую исследователь хочет использовать для анализа данных, «рабочей моделью».
Часто с реальными рабочими моделями и наборами данных размеры выборки относительно малы, а анализ на основе правдоподобия нестабилен, тогда как анализ того же набора данных с использованием более простой, но менее богатой модели может быть стабильным.Каталитические априорные значения * эффективно дополняют наблюдаемые данные небольшим объемом синтетических данных, сгенерированных из подходящего прогнозирующего распределения, такого как апостериорное прогнозирующее распределение в рамках более простой модели. Таким образом, результирующее апостериорное распределение в рамках рабочей модели подтягивается к апостериорному распределению в более простой модели, что приводит к оценкам и прогнозам с лучшими частотными свойствами. Название этих приоров происходит потому, что катализатор - это то, что стимулирует реакцию, которая не могла бы иметь место (или не столь эффективно) без него, а требуется лишь незначительное количество катализатора.Когда информация в наблюдаемых данных является существенной, каталитический априор оказывает незначительное влияние на результирующий вывод, потому что информация в синтетических данных мала по сравнению с информацией в наблюдаемых данных.
Мы не первые, кто предлагает такие априорные решения, но мы встраиваем их в общие рамки, разработанные для широкого круга примеров. Одно из первых предложений по применению таких априорных точек содержится в исх. 1, который был основан на более раннем предложении Рубина в отчете 1983 года для Бюро переписи США (перепечатано в качестве приложения в исх.2). Такой априор также использовался в байесовском анализе данных с несоответствием в рандомизированном исследовании (3).
Как и в обеих предыдущих ссылках, рассмотрим логистическую регрессию в качестве примера: yi∣xi, β∼Bernoulli1 / (1 + exp (−xi⊤β)), i = 1,…, n, где для i-го точка данных (yi, xi), yi∈ {0,1} - это ответ, а xi = (1, xi1,…, xi, p − 1) ⊤ представляет p ковариат с неизвестными коэффициентами β = ( β 0, β 1,…, βp −1) ⊤ . Оценка максимального правдоподобия (MLE) β бесконечна, когда имеется полное разделение (4, 5) наблюдаемых значений ковариант в двух категориях отклика, что может легко произойти, когда p велико относительно n.Более ранние попытки решить эту проблему, такие как использование приора Джеффри (6⇓⇓ – 9), не полностью удовлетворительны. Эта проблема возникает обычно на практике: например, исх. 1 изучал сопоставление кодов промышленности и занятий (I / O) переписи населения США 1970 года с кодами переписи 1980 года, где обе системы кодирования имели сотни категорий. Система классификации ввода-вывода радикально изменилась с переписи 1970 года до переписи 1980 года, и один код 1970 года мог отображать до 60 возможных кодов 1980 года. Для каждого кода 1970 года код 1980 года считался пропущенным и рассчитывался с множественным вменением на основе ковариат.Модели вменения представляли собой вложенные (дихотомические) модели логистической регрессии (10), оцененные на основе специальной обучающей выборки, для которой были известны коды 1970 и 1980 годов. Ковариаты, использованные в этих моделях, были получены из девяти различных факторов (пол, возраст, раса и т. Д.), Которые сформировали перекрестную классификацию с J = 2 304 категориями. Выборка, доступная для оценки сопоставления, была меньше 10 для некоторых кодов 1970 года, и многие из этих моделей логистической регрессии столкнулись с полным разделением. Удачный подход в исх.∈ (0,1).
Как использовать перспективу синтетических данных для построения общих априорных распределений, которые мы назвали каталитическими априорными распределениями, находится в центре нашего внимания. Мы математически формулируем класс каталитических априорных значений и применяем их к обобщенным линейным моделям (GLM). Мы показываем, что каталитический априор является правильным и дает стабильные оценки в мягких условиях. Имитационные исследования показывают, что частотные свойства модели оценки с использованием каталитических априорных значений сопоставимы, а иногда и превосходят существующие конкурентные оценки.Такой предварительный подход имеет преимущества, заключающиеся в том, что его часто легче сформулировать, и он допускает простую реализацию из стандартного программного обеспечения.
Мы также предлагаем интерпретацию каталитического априори с точки зрения теории информации (подробно в SI Приложение , раздел 4).
Родственные априорные значения
Практика использования синтетических данных (или псевдоданных) для определения априорных распределений имеет долгую историю в байесовской статистике (11). Хорошо известно, что сопряженные априорные значения для экспоненциальных семейств можно рассматривать как вероятность псевдонаблюдений (12).Некоторые авторы предложили формулировать априорные значения путем получения дополнительных псевдоданных из знаний экспертов (13⇓ – 15), что непросто использовать на практике, когда данные имеют много измерений или когда рассматриваются многочисленные модели или эксперты. Ссылка 16 и 17 предложили использовать сопряженное бета-распределение априорного значения со специально выбранными значениями ковариат для аппроксимации многомерного гауссова априорного значения для коэффициентов регрессии в модели логистической регрессии. Сложность этого подхода заключается в том, что расширенный набор данных может содержать невозможные значения для ковариаты.Другой подход - это ожидаемое апостериорное априорное (18⇓ – 20), где априорное значение определяется как среднее апостериорное распределение по набору воображаемых данных, взятых из простой прогностической модели. Этот подход разработан для решения проблем при выборе байесовской модели. Были предложены другие предварительные оценки для включения информации из предыдущих исследований. В частности, степень априорной вероятности (21⇓ – 23) формулирует информативную априорную величину, генерируемую степенью функции правдоподобия исторических данных. Одним из ограничений этой возможности является то, что для ее правильности требуется, чтобы ковариатная матрица исторических или текущих данных имела полный ранг столбца (22).Недавно была предложена апостериорная ожидаемая степень априорной вероятности, чтобы облегчить вычислительную задачу, связанную с апостериорной ожидаемой априорной вероятностью при выборе модели (24, 25). Он включает в себя идеи как апостериорного ожидаемого априорного, так и степенного априорного значения, но он не может применяться, когда размер рабочей модели превышает размер выборки. Некоторые другие предлагаемые в литературе приоры имеют внешний вид, аналогичный каталитическим. Ref. 26 предложил предварительную ссылку, которая максимизирует взаимную информацию между данными и параметром, в результате чего априорная функция плотности похожа на функцию каталитической априорной, но существенно отличается.Ref. 27 предложили предварительную версию, основанную на идее согласования функций потерь, которая, хотя функционально подобна каталитической предварительной версии, концептуально отличается, поскольку требует субъективного первоначального выбора для распределения данных. В исх. 28 класс априорных значений сложности для компонентов иерархической модели основан на наказании за сложность, вызванную отклонением от более простой модели. Более простая модель должна быть вложена в рабочую модель, чего не требует каталитический априор.
Общий состав каталитических первичных компонентов
Каталитические первичные компоненты в отсутствие ковариатов.
Рассмотрим данные Y = (Y1,…, Yn) ⊤, анализируемые в рамках рабочей модели Yi∼i.i.d.f (y∣θ), управляемой неизвестным параметром θ, где i.i.d. означает независимый и идентично распределенный. Предположим, что модель g (y∣ψ) с неизвестным параметром ψ, размерность которого меньше, чем размер θ, стабильно аппроксимируется по Y и приводит к прогнозному распределению g * (y * ∣Y) для будущих данных, взятых из g (y ∣ψ).Распределение создания синтетических данных g * (y * ∣Y) используется для генерации синтетических данных {Yi *} i = 1M, где M - размер синтетической выборки, а верхний индекс звездочки используется для обозначения синтетических данных.
Синтетическое распределение, генерирующее данные, может быть определено путем подбора модели, более простой, чем f (y∣θ), но это не обязательно. Примеры: (1) Если байесовский анализ более простой модели можно легко провести, g * (y * ∣Y) можно принять как апостериорное прогнозирующее распределение в рамках более простой модели.) может быть предиктивным распределением плагина. (3) Если две более простые оценочные модели - это g * (1) (y * ∣Y) и g * (2) (y * ∣Y), то g * (y * ∣Y) можно рассматривать как смесь w g * (1) (y * ∣Y) + (1 − w) g * (2) (y * ∣Y) для некоторого w∈ (0,1).
Функция правдоподобия θ согласно рабочей модели, основанной на синтетических данных {Yi *} i = 1M, равна ℓ (θ∣Y *) = ∏i = 1Mf (Yi * ∣θ). Поскольку эти синтетические данные на самом деле не являются наблюдаемыми данными, мы занижаем их, увеличивая эту вероятность до степени τ / M, где τ> 0 - параметр настройки, называемый априорным весом.Это приводит к каталитическому априору, имеющему ненормированную плотность: πcat, M (θ∣τ) ∝ ∏i = 1Mf (Yi * ∣θ) τ / M, [3] который зависит от случайно выбранных синтетических данных {Yi *} я = 1М. Каталитическое предварительное заселение формально является пределом формулы. 3 , когда M стремится к бесконечности: πcat, ∞ (θ∣τ) ∝ expτEg * logf (Y * ∣θ). [4] Здесь математическое ожидание Eg * logf (Y * ∣θ) в уравнении . 4 берется относительно Y * ∼g * (Y * ∣Y). Зависимость g * (Y * ∣Y) от наблюдаемого Y подчеркивает, что каталитический априор зависит от данных, как тот, который используется в Box и Cox (29) для преобразований мощности.
Апостериорная плотность с использованием каталитического априорного значения математически пропорциональна правдоподобию как для наблюдаемых данных, так и для взвешенных синтетических данных. Таким образом, мы можем реализовать байесовский вывод с помощью стандартного программного обеспечения. Например, максимальная апостериорная оценка (апостериорный режим) такая же, как MLE с использованием взвешенных дополненных данных, и может быть вычислена существующими процедурами MLE, что может быть вычислительным преимуществом, как показано в исх. 1.
Каталитический предшественник с ковариатами.
Пусть {(Yi, Xi)} i = 1n будет набором из n пар скалярного отклика Yi и p-мерного ковариантного вектора Xi; Yi зависит от Xi в рабочей модели с неизвестным параметром β: Yi∣Xi, β∼f (y∣Xi, β), i = 1,2…, n. [5] Пусть Y - вектор (Y1,…, Yn) ⊤ и X - матрица (X1,…, Xn) ⊤. Вероятность этих данных равна f (Y∣X, β) = ∏i = 1nf (Yi∣Xi, β).
Предположим, что более простая модель g (y∣X, ψ) с неизвестным параметром ψ стабильно аппроксимируется из (Y, X) и приводит к синтетическому распределению генерации данных g * (y∣x, Y, X). Обратите внимание, что g * (⋅) здесь аналогично его использованию ранее, за исключением того, что теперь, помимо наблюдаемых данных, он также зависит от x.Синтетические ковариаты X * будут взяты из распределения Q (x), которое мы называем синтетическим распределением, порождающим ковариаты. Вскоре мы обсудим выбор Q (x).
Учитывая распределения Q (x) и g * (y∣x, Y, X), каталитический априор сначала рисует набор синтетических данных {(Yi *, Xi *)} i = 1M из Xi * ∼iidQ (x ), Yi * ∣ Xi * ∼g * (y∣Xi *, Y, X). Далее мы пишем Y * для вектора синтетических ответов (Y1 *,…, YM *) ⊤ и X * для матрицы синтетические ковариаты (X1 *,…, XM *) ⊤. Вероятность работающей модели на основе синтетических данных ℓ (β∣Y *, X *) равна ∏i = 1Mf (Yi * ∣Xi *, β).Поскольку эти синтетические данные на самом деле не наблюдаются, мы занижаем их, повышая эту вероятность до степени τ / M, которая дает ненормированную плотность каталитического априорного значения с ковариатами: πcat, M (β∣τ) ∝∏i = 1Mf (Yi * ∣Xi *, β) τ / M. [6] Каталитический априор популяции (когда M → ∞) имеет ненормализованную плотность: πcat, ∞ (β∣τ) ∝expτEQ, g * logf (Y * ∣ X *, β), [7] где математическое ожидание EQ, g * усредняется как по X *, так и по Y *. Обозначим через Zτ, M и Zτ, ∞ интегралы от правых частей уравнений. 6 и 7 относительно β.Когда эти интегралы конечны, априорные значения являются собственными, а Zτ, M и Zτ, ∞ являются их нормирующими константами.
Преимущество каталитического априорного значения состоит в том, что соответствующий апостериорный элемент имеет ту же форму, что и вероятность π (β | X, Y, τ) ∝ πcat, M (β | τ) f (Y | X, β) ∝ expτM∑i = 1Mlogf (Yi * | Xi *, β) + ∑i = 1nlogf (Yi | Xi, β), что делает апостериорный вывод не сложнее, чем другие стандартные методы, основанные на правдоподобии. Например, апостериорный режим можно легко вычислить как оценку максимального взвешенного правдоподобия с использованием стандартного статистического программного обеспечения.Полный апостериорный вывод также можно легко реализовать, рассматривая синтетические данные как данные с пониженным весом.
Каталитический приор для GLM.
GLM предполагает, что для данного ковариантного вектора X отклик Y имеет следующую плотность относительно некоторой базовой вероятностной меры: f (y∣X, β) = expt (y) θ − b (θ), [8 ], где t (y) - достаточная статистика, а θ - канонический параметр, который зависит от η = X⊤β через θ = ϕ (η), где β - вектор неизвестных коэффициентов регрессии, а ϕ (⋅) - монотонно дифференцируемый функция.Среднее значение t (Y) обозначается μ (η) и равно b ′ (ϕ (η)).
Когда рабочая модель - GLM, из ур. 7 и 8 , имеем EQ, g * logf (Y * ∣ X *, β) = EQϕ (β⊤X *) Eg * t (Y *) ∣X * −b (ϕ (β⊤ X *)), [9], так что ожидание логарифма правдоподобия не зависит от конкретных реализаций синтетического ответа, а, скорее, от условного среднего достаточной статистики при синтетическом распределении, генерирующем данные. Таким образом, в случае GLM (и моделей экспоненциального семейства) вместо конкретной реализации синтетического отклика нужно только использовать условное среднее достаточной статистики Eg * [t (Y *) ∣X *], чтобы образуют каталитический приор.Это упрощение снижает вариативность, вносимую синтетическими данными. †
В качестве конкретного примера рассмотрим модель линейной регрессии Y = Xβ + ϵ, где ϵ∼Nn (0, σ2In) с известным σ. Предположим, что модель генерации синтетических данных является подмоделью с оцениваемым параметром β0 *, а X * - это синтетическая ковариатная матрица. В этом случае каталитический априор с любым положительным τ имеет нормальное распределение: β∼Nβ0 *, σ2τ1M (X *) ⊤X * −1. Если limM → ∞1M (X *) ⊤X * = ΣX, популяционный каталитический априорным является β∼Nβ0 *, σ2τ (ΣX) −1.Более подробную информацию об этом примере можно найти в Приложении SI .
Технические характеристики предшествующего каталитического образца
Создание синтетических ковариатов.
Синтетические векторы ковариант генерируются так, что (X *) ⊤X * имеет полный ранг. Более того, синтетическая ковариата должна иметь то же пространство выборок, что и реальная ковариата. Простой выбор повторной выборки наблюдаемых векторов ковариант не гарантирует полного ранга (X *) ⊤X *; например, если наблюдаемые ковариаты имеют недостаточный ранг, повторная выборка по-прежнему даст недостаточный ранг (X *) ⊤X *.
Вместо этого мы рассматриваем один вариант генерации синтетических ковариат: независимую повторную выборку каждой координаты наблюдаемых ковариат. Формально мы определяем независимое передискретизирующее распределение функцией массы вероятностей Q0 (x) ≔ ∏j1n # {1≤i≤n: (Xi) j = xj} для всех x∈X, где X - это пространство выборки X. Мы используем этот дистрибутив для простоты. В качестве альтернативы, если доступны исторические данные, синтетические ковариаты могут быть взяты из исторических ковариат. Более того, если некоторые переменные сгруппированы естественным образом или сильно коррелированы, можно пересчитать эти сгруппированные части вместе.Другие примеры обсуждаются в Приложении SI .
Генерация синтетических ответов.
Синтетическое распределение, генерирующее данные, может быть определено путем подгонки простой модели GΨ = {g (y∣x, ψ): ψ∈Ψ} к наблюдаемым данным. Единственное требование состоит в том, чтобы эта простая модель могла стабильно соответствовать наблюдаемым данным в том смысле, что стандартная оценка ψ, используя либо байесовский, либо частотный подход, может привести к четко определенному прогнозному распределению для будущих данных. Примеры включают фиксированное распределение и модель только для перехвата.GΨ также может быть регрессионной моделью, основанной на уменьшении размерности, такой как анализ главных компонентов; SI Приложение содержит числовой пример, который также предлагает максимально упростить GΨ, когда наблюдаемый размер выборки невелик. Для рабочей регрессионной модели с взаимодействиями естественным выбором GΨ является подмодель только с основными эффектами. Если модель основного эффекта также переоборудована, мы могли бы использовать смешанное синтетическое распределение, генерирующее данные, такое как g * (y∣x, Y, X) = 0,5 g *, 1 (y∣x, Y, X) +0.5 g *, 0 (y∣x, Y, X), где g *, 1 и g *, 0 - прогнозные распределения предварительно подобранной модели основного эффекта и модели только перехвата, соответственно. GΨ также можно выбрать с использованием дополнительных знаний, таких как подмодель, которая включает несколько важных ковариат, которые были идентифицированы в предыдущих исследованиях, или если эксперты в предметной области имеют мнение о диапазоне возможных значений определенных параметров модели, тогда пространство параметров Ψ может быть ограниченным соответственно.
Иногда бывает полезно нарисовать несколько синтетических ответов для каждого выбранного синтетического вектора ковариаты.Мы называем эту выборку генерацией стратифицированных синтетических данных. Это может помочь уменьшить изменчивость, вносимую синтетическими данными.
Размер выборки синтетических данных.
Теорема 4, приведенная ниже, дает количественную оценку того, насколько быстро уменьшается случайность в каталитическом априорном приближении по мере увеличения размера синтетической выборки M. Одно из следствий состоит в том, что для линейной регрессии с двоичными ковариатами, если M≥4p3ϵ2log (pδ), то расхождение Кульбака – Лейблера (KL) между каталитическим априорным πcat, M и его пределом πcat, ∞ не превышает ϵ с вероятностью не менее 1 −δ.Такая оценка может помочь выбрать величину M. Если априорное значение должно быть правильным, мы предлагаем взять M, превышающее размерность β в четыре раза (на основе теоремы 1 и предложения ниже).
Вес синтетических данных.
Априорный вес τ контролирует, насколько апостериорный вывод опирается на синтетические данные, поскольку его можно интерпретировать как эффективный априорный размер выборки. Здесь мы даем два руководства по систематическому определению τ.
Частотный специалист по прогнозной оценке рисков.△ i (τ)).
Байесовские гиперприоры.
Альтернативный способ указать априорный вес τ - рассмотреть совместный каталитический априор для (τ, β): πα, γ (τ, β) ∝Γα, γ (τ) ∏i = 1Mf (Yi * ∣ Xi * , β) τ / M, [15] где Γα, γ (τ) - функция, определенная следующим образом для положительных скалярных гиперпараметров α и γ. Обозначим κ ≔ supβ∈Rp1M∑i = 1Mlogf (Yi * ∣Xi *, β). Для линейной регрессии функцию Γα, γ (τ) можно принять равной Γα, γ (τ) = τp + α2−1e− τ (κ + γ − 1) [16], а для других моделей Γα, γ (τ) = τp + α − 1e − τ (κ + γ − 1). [17]
Форма Γα, γ (τ) выбрана в основном для практического удобства; разделив зависимость от p и κ, мы получаем содержательные интерпретации для α и γ.Для GLM существуют предшествующие моменты β до порядка α, а γ управляет экспоненциальным убыванием априорной плотности τ (, теорема 3). Для линейной регрессии предельный априор для β, индуцированный уравнением. 15 - многомерное распределение t , сосредоточенное вокруг MLE для синтетических данных с ковариационной матрицей 2σ2αγ⋅ (1M (X *) ⊤X *) - 1 и степенями свободы α. 0 = (1/2 + ∑i≤nYi) / (1 + n).0⋅1M, и каждый синтетический вектор ковариации Xi * извлекается из независимого распределения повторной выборки; этот априор является правильным, когда (X *) ⊤X * положительно определено согласно теореме 1.
Числовой пример.
Сначала мы генерируем наблюдаемые ковариаты Xi, рисуя гауссовский случайный вектор Zi, компоненты которого имеют среднее значение 0, дисперсию 1 и общую корреляцию ρ = 0,5; setXi, j = 2⋅1Zi, j> 0−1, 2j В таблице 1 представлено среднее прогнозируемое биномиальное отклонение по 1600 моделированиям в каждой ячейке. Столбец Комп. Сентябрь показывает, как часто происходит полное разделение наборов данных; когда происходит полное разделение, MLE не существует, но псевдо-MLE может быть вычислен алгоритмически, если изменение в оценке меньше 10-8 в течение 25 итераций. Столбец MLE усредняет только те случаи, когда существует MLE или псевдо-MLE. В таблице 1 жирный шрифт соответствует наиболее эффективному методу для каждого сценария моделирования.boot предсказывает лучшее, а MLE предсказывает худшее во всех рассмотренных случаях. Хотя предварительная оценка Коши, кажется, работает близко к совместной каталитической предварительной оценке, таблица 2 показывает, что прогноз, основанный на совместной каталитической предварительной оценке, статистически значительно лучше, чем прогноз предыдущей модели Коши (Таблица 2 непосредственно вычисляет разницу ошибок прогнозирования между предварительными оценками Коши). Prior и совместный каталитический Prior, и показывает, что разница значительна положительна при скорректированном по Бонферрони значении P меньше 0.02). В таблицах 1 и 2 основное внимание уделяется прогнозируемому биномиальному отклонению. SI Приложение , раздел 3.D рассматривает другие измерения ошибок, включая ошибку классификации и площадь под кривой, из чего можно сделать аналогичный вывод относительно производительности различных методов: прогнозы, основанные на каталитических априорных значениях, как правило, намного лучше, чем прогнозы, основанные на на MLE и часто лучше, чем те, которые основаны на приоре Коши.
Таблица 1. Среднее значение и SE прогнозируемого биномиального отклонения различных методов
Таблица 2. Среднее и стандартное отклонение разницы в прогнозируемом биномиальном отклонении между апостериорной модой Коши и совместной каталитической апостериорной медианой
В таблице 3 представлены средние вероятности охвата (в процентах) и ширина 95% номинальных интервалов для усреднения βj по j. Поскольку все интервалы, заданные MLE, имеют слишком большую ширину, чтобы быть полезными (в тысячи раз шире, чем заданные другими методами), мы не указываем их в этой таблице. Интервалы от трех других априорных точек достаточно короткие во всех случаях и имеют уровни охвата недалеко от номинальных уровней.загрузка выполняется более стабильно. Этот пример, вместе с другими результатами, приведенными в Приложении SI , показывает, что для логистической регрессии каталитический априор не менее хорош, чем априорный план Коши. SI Приложение также иллюстрирует работу каталитического априорного метода в линейной регрессии, где она, по крайней мере, так же хороша, как и гребенчатая регрессия. Таким образом, каталитические первичные компоненты, по-видимому, обеспечивают общую основу для предшествующего конструирования для широкого диапазона моделей.
Таблица 3. Средняя вероятность покрытия (в процентах) и ширина 95% задних интервалов под каталитическим предварительным фильтром с τ ^ boot, совместным каталитическим предварительным фильтром и предварительным покрытием Коши
Теоретические свойства каталитических предварительных частиц
Мы показываем правильность и сходимость каталитического приора, когда рабочая модель - GLM.Без ограничения общности, мы предполагаем, что достаточная статистика в формуле GLM Eq. 8 - это t (y) = y; в противном случае мы можем позволить ответу быть Y ′ = t (Y) и продолжить. Мы предполагаем, что каждая ковариата имеет как минимум два различных наблюдаемых значения. Обозначим через Y непустую внутренность выпуклой оболочки носителя модельной плотности в уравнении. 8 . Наши результаты применимы к любому положительному априорному весу τ.
Собственность.
Правильный априор необходим для многих байесовских выводов, таких как сравнение моделей с использованием байесовских факторов (32).Мы показываем, что каталитические приоритеты, популяционные каталитические приоритеты и совместные каталитические приоритеты обычно являются правильными, с доказательствами в Приложении SI .
Теорема 1. Предположим, что (1) ϕ (⋅) удовлетворяет infη ≠ 0 | ϕ (η) / η |> 0, (2) синтетическая ковариатная матрица X * имеет полный ранг столбца , и (3) каждый синтетический ответ Yi * лежит в Y или существует линейно независимое подмножество {Xik *} k = 1p синтетических ковариантных векторов, так что среднее значение синтетических ответов с тот же Xik * лежит в Y. Тогда , каталитический априор подходит для любого τ> 0.
Условие infη ≠ 0 | ϕ (η) / η |> 0 выполняется для канонической ссылки для любой GLM, а также для обычно используемой пробит-ссылки и дополнительной лог-логарифмической связи в двоичной регрессии. Условие того, что X * имеет полный ранг столбца, выполняется с высокой вероятностью согласно следующему результату.
Предложение. Если каждый синтетический вектор ковариаты взят из независимого распределения повторной выборки , , тогда существует константа c> 0 , которая зависит только от наблюдаемого X , так что для любого M> p с вероятностью не менее 1−2exp (−cM), синтетическая ковариантная матрица X * имеет полный ранг столбца .
Популяционные каталитические приоры тоже свои.
Теорема 2. Предположим, что (1) ϕ (⋅) удовлетворяет infη ≠ 0 | ϕ (η) / η |> 0, (2) синтетический ковариантный вектор извлекается из независимого распределения повторной дискретизации , и (3) существует компактное подмножество Ycom⊂Y такое, что P (Y * ∈Ycom) = 1. Тогда , каталитический априор заселения подходит для любого τ> 0.
Следующий результат показывает правильность совместной априорной πα, γ (τ, β) в уравнении. 15 и роль гиперпараметров.
Теорема 3. Предположим, что α и γ положительны . Если Γα, γ (τ) равно Ур. 16 для линейной регрессии или равно Ур. 17 для других GLM , тогда при тех же условиях, что и в теореме 1, (1) совместный приор является правильным ; (2) для любого m∈ (0, α), мес. момент β существует ; (3) limτ → ∞1τloghα, γ (τ) = - 1 / γ <0, , где hα, γ (τ) обозначает предельный априор на τ.
Конвергенция к популяционному каталитическому приору.
Когда размер синтетической выборки, M, достаточно велик, случайность в синтетических данных не повлияет на каталитическую априорную оценку, независимо от наблюдаемого реального размера выборки, потому что, как распределение параметров, каталитическая априорная оценка сходится к каталитической предварительной генерации .
Мы можем количественно оценить, насколько быстро каталитический априор как случайное распределение сходится к популяционному каталитическому априорному плану, установив явную верхнюю границу расстояния между этими двумя распределениями в терминах M.Этот результат показывает, насколько большим должно быть M, чтобы случайность в синтетических данных больше не влияла на предыдущие. Мы представляем здесь упрощенную версию теоретического результата; точные и подробные заявления приведены в Приложении SI .
Теорема 4. В условиях умеренной регулярности ,
1. Для любых заданных τ и p, существует константа C1, такая, что для любого небольшого положительного ϵ0, ϵ1, и любое M≥C11 + log2 (1ϵ1) 1ϵ12log (1ϵ0), с вероятностью не менее 1 − ϵ0 , полное расстояние вариации между каталитическим априорным и популяционным каталитическим априорным значением ограничено dTV (πcat, ∞, πcat , M) ≤ϵ1.
2. Если рабочая модель представляет собой линейную регрессию с гауссовым шумом , , тогда существует константа C2 , которая зависит только от наблюдаемых ковариат , , так что для любого ϵ0> 0 и любого M> 169C22plog (pϵ0), с вероятностью не менее 1 - ϵ0, , расхождение KL между каталитическим априорным и популяционным каталитическим априорными значениями при любом τ> 0 ограничено KL (πcat, ∞, πcat, M ) ≤2C21Mp3logpϵ0.
Доступность данных.
Все данные, используемые в статье, являются данными моделирования. Детали, включая модели для генерации данных моделирования, описаны в Иллюстрация методов и SI Приложение , раздел 3.
Обсуждение
Класс каталитических априорных распределений стабилизирует оценку относительно сложной рабочей модели с помощью дополнение фактических данных синтетическими данными, полученными из прогнозного распределения более простой модели (включая, но не ограничиваясь, подмодель рабочей модели).Наша теоретическая работа и доказательства, основанные на моделировании, показывают, что полученные выводы с использованием стандартного программного обеспечения, которое обрабатывает расширенные данные так же, как фактические данные, имеют конкурентоспособные, а иногда и явно превосходящие рабочие характеристики частоты по сравнению с выводами, основанными на альтернативах, которые были предложены ранее. Более того, каталитические априорные значения, как правило, легче сформулировать, поскольку они основаны на гипотетических сглаженных данных, которые напоминают фактические данные. Две константы настройки, M и τ, требуют выбора, и разумный выбор для них, по-видимому, в некоторой степени зависит от модели: например, они различаются для линейной и логистической регрессии, обе из которых рассматриваются здесь.Мы ожидаем, что каталитические априорные значения найдут широкое применение, особенно по мере того, как более сложные байесовские модели подходят для все более и более сложных наборов данных. Некоторые открытые вопросы для будущих исследований включают (1) как применять каталитические априорные значения для выбора модели и (2) как изучать асимптотические свойства, когда и размер выборки, и размерность рабочей модели стремятся к бесконечности - в таком режиме, Также интересно исследовать, какой должна быть простая модель, чтобы достичь хорошего компромисса между смещением и дисперсией.
Благодарности
Исследования D.B.R. частично поддерживается грантом NSF IIS-1409177, грантом NIH 1R01AI140854 и грантом Управления военно-морских исследований N00014-17-1-2131. Исследование S.C.K. частично поддерживается NSF Grant DMS-1810914.
Сноски
Автор: D.B.R. и S.C.K. спланированное исследование; D.H., N.S., D.B.R. и S.C.K. проведенное исследование; Д.Х. предоставил новые реагенты / аналитические инструменты; D.H., D.B.R. и S.C.K. проанализированные данные; и Д.H., N.S., D.B.R. и S.C.K. написал газету.
Рецензенты: J.O.B., Duke University; и H.) / J были использованы.
Эта статья содержит вспомогательную информацию в Интернете по адресу https://www.pnas.org/lookup/suppl/doi:10.1073/pnas.19207/-/DCSupplemental.
- Copyright © 2020 Автор (ы). Опубликовано PNAS.
Предыдущие выпуски для моделей rstanarm
Предыдущие выпуски для моделей rstanarm Иона Габри и Бен Гудрич
2020-07-20
По состоянию на июль 2020 года в предыдущих дистрибутивах есть несколько изменений:
За исключением приоритетов по умолчанию, autoscale
теперь по умолчанию FALSE
.Это означает, что при указании пользовательских приоритетов вам больше не нужно вручную устанавливать autoscale = FALSE
каждый раз, когда вы используете дистрибутив.
В априорные значения по умолчанию для коэффициентов пересечения и (неиерархической) регрессии внесены незначительные изменения. См. Приоры по умолчанию и корректировки шкалы ниже.
Мы рекомендуем новую книгу «Регрессия и другие истории», в которой обсуждаются предпосылки, лежащие в основе априорных значений по умолчанию в rstanarm , а также приводятся примеры определения априорных значений по умолчанию.
Эта виньетка дает обзор того, как спецификации предыдущих дистрибутивов работают в пакете rstanarm . Работа над ним все еще продолжается, и в будущих версиях rstanarm будет добавлено больше контента. Перед прочтением этой виньетки важно сначала прочитать виньетку «Как использовать rstanarm Package», в которой дается общий обзор пакета.
Каждая функция моделирования в rstanarm предлагает подмножество аргументов в таблице ниже, которые используются для определения предшествующих распределений для параметров модели.
Prior_intercept
Все функции моделирования, кроме stan_polr
и stan_nlmer
Перехват модели после центрирования предикторов. до
Все функции моделирования Коэффициенты регрессии. Включает ли не коэффициенты, которые варьируются в зависимости от группы в многоуровневой модели (см. prior_covariance
). Prior_aux
стан_глм
*, стан_глмер
*, стан_гамм4
, стан_нлмер
Вспомогательный параметр, например ошибка SD (интерпретация зависит от GLM). Prior_covariance
стан_глмер
*, стан_гамм4
, стан_нлмер
Ковариационные матрицы в многоуровневых моделях с различными наклонами и пересечениями. См. Виньетку stan_glmer
для получения подробной информации об этом предыдущем.
* stan_glm
также подразумевает stan_glm.nb
. stan_glmer
подразумевает stan_lmer
и stan_glmer.nb
.
Функции stan_polr
, stan_betareg
и stan_gamm4
также предоставляют дополнительные аргументы, специфичные только для этих моделей:
Prior_smooth
стан_гамм4
Prior для гиперпараметров в GAM (более низкие значения приводят к менее гибким сглаживающим функциям). Prior_counts
стан_полр
Предварительный подсчет результата порядкового номера (когда предикторы в выборке средние). Prior_z
stan_betareg
Коэффициенты в модели для phi
. Prior_intercept_z
stan_betareg
Intercept в модели для phi
. Prior_phi
stan_betareg
phi
, если не моделировать как функцию предикторов.
Чтобы указать эти аргументы, пользователь предоставляет вызов одной из различных доступных функций для указания априорных значений (например, Prior = normal (0, 1)
, Prior = cauchy (c (0, 1), c (1, 2.5))
). Документацию по этим функциям можно найти по адресу help («priors»)
. Документация rstanarm и другие виньетки предоставляют множество примеров использования этих аргументов для определения априорных значений, а также документация для этих аргументов на страницах справки для различных функций моделирования rstanarm (например,g., help ("stan_glm")
) также объясняет, какие распределения могут использоваться при указании каждого из предшествующих связанных аргументов.
За очень немногими исключениями, априорные значения по умолчанию в rstanarm - априорные значения, используемые, если аргументы в приведенных выше таблицах не затронуты, - это , а не плоские априорные значения. Скорее, значения по умолчанию малоинформативны . То есть они предназначены для обеспечения умеренной регуляризации и помощи в стабилизации вычислений. Для многих (если не для большинства) приложений значения по умолчанию будут работать хорошо, но это не гарантируется (нет априорных значений по умолчанию, которые имеют смысл для каждой возможной спецификации модели).
Способ, которым rstanarm пытается сделать априорные элементы по умолчанию слабо информативными, - это внутренняя корректировка шкал априорных значений. Как это работает (и, что важно, как его отключить), объясняется ниже, но сначала мы можем взглянуть на априорные значения по умолчанию в действии, сопоставив базовую модель линейной регрессии с функцией stan_glm
. Для указания приоритетов функция stan_glm
принимает аргументы Prior_intercept
, Prior
и Prior_aux
.Чтобы использовать априорные значения по умолчанию, мы просто оставляем эти аргументы по умолчанию (т.е. мы их не указываем):
Функция prior_summary
предоставляет краткое изложение используемых априорных значений:
Приоры для модели default_prior_test
------
Перехват (после центрирования предикторов)
Уточнено заранее:
~ нормальный (расположение = 20, масштаб = 2,5)
Скорректировано до:
~ нормальный (положение = 20, масштаб = 15)
Коэффициенты
Уточнено заранее:
~ нормальный (расположение = [0,0], масштаб = [2.5,2,5])
Скорректировано до:
~ нормальный (местоположение = [0,0], масштаб = [15.40,30.20])
Вспомогательный (сигма)
Уточнено заранее:
~ экспоненциальный (коэффициент = 1)
Скорректировано до:
~ экспоненциальный (коэффициент = 0,17)
------
См. Справку ('prior_summary.stanreg') для получения дополнительных сведений.
Начиная снизу вверх, мы видим, что:
Вспомогательный : сигма
, стандартное отклонение ошибки, по умолчанию предшествует \ (\ mathsf {exponential} (1) \). Однако в результате автоматического масштабирования фактический масштаб был равен 6.03.
Коэффициенты : по умолчанию коэффициенты регрессии (в данном случае коэффициенты для переменных wt
и am
) рассматриваются как априори независимые с нормальными априорными значениями с центром в 0 и шкалой (стандартное отклонение) \ (2,5 \). Как и для sigma
, для того, чтобы значение по умолчанию было малоинформативным, rstanarm настроит шкалы априорных значений коэффициентов. В результате фактически использовались предыдущие шкалы - 15.40 и 30.20.
Перехват : для точки пересечения предварительное значение по умолчанию является нормальным со средним значением \ (0 \) и стандартным отклонением \ (2,5 \), но в этом случае стандартное отклонение было скорректировано до 15,07. В скобках также есть примечание, информирующее вас о том, что предшествующее применяется к перехвату после того, как все предикторы были центрированы (аналогичное примечание можно найти в документации аргумента prior_intercept
). Во многих случаях значение \ (y \), когда \ (x = 0 \) не имеет смысла, и легче думать о значении, когда \ (x = \ bar {x} \).Поэтому размещение априорной точки на точке пересечения после центрирования предикторов обычно упрощает определение разумной априорной позиции для точки пересечения. (Примечание: пользователю не нужно вручную центрировать предикторы .)
Чтобы отключить центрирование предикторов, необходимо опустить перехват в формуле модели
и включить столбец единиц в качестве предиктора (который нельзя назвать "(Перехват)"
в кадре данных .
). Затем вы можете указать предварительный «коэффициент» для столбца единиц.
В следующих двух подразделах описывается, как работает изменение масштаба и как его легко отключить при желании.
Приоры по умолчанию и корректировки шкалы
Автоматическая корректировка шкалы происходит в двух случаях:
- Когда используются априорные значения по умолчанию.
- Когда пользователь устанавливает
autoscale = TRUE
при указании своего собственного предшествующего (например, normal (0, 3, autoscale = TRUE)
). См. Справку («априорные»)
для получения списка дистрибутивов, у которых есть аргумент autoscale
.
Здесь мы описываем, как априорные значения по умолчанию работают для точки пересечения, коэффициентов регрессии и (если применимо) вспомогательных параметров. Автоматическое масштабирование, когда не используются априорные значения по умолчанию, работает аналогично (если автомасштабирование = ИСТИНА
).
Предположим, у нас есть результат \ (y \) и предикторы \ (x_1, \ ldots, x_k \), а наша модель имеет линейный предиктор
\ [
\ alpha + \ beta_1 x_1 + \ точки + \ beta_K x_K.
\]
Коэффициенты регрессии
По умолчанию предварительные коэффициенты регрессии \ (\ beta_k \) равны
. \ [
\ beta_k \ sim \ mathsf {Нормальный} (0, \, 2.5 \ cdot s_y / s_x)
\] где \ (s_x = \ text {sd} (x) \) и \ [
s_y =
\ begin {case}
\ text {sd} (y) & \ text {if} \: \: {\ tt family = gaussian (ссылка)}, \\
1 & \ text {иначе}.
\ end {case}
\]
Это соответствует Prior = normal (0, 2.5, autoscale = TRUE)
в коде rstanarm .
Перехват
Перехватчик назначается априори косвенно. Аргумент prior_intercept
относится к перехвату после центрирования всех предикторов (внутреннее значение rstanarm ).То есть, вместо того, чтобы помещать априорное значение в ожидаемое значение \ (y \), когда \ (x = 0 \), мы помещаем априорное значение в ожидаемое значение \ (y \), когда \ (x = \ bar {x } \). По умолчанию для этого центрированного пересечения, скажем, \ (\ alpha_c \), это
. \ [
\ alpha_c \ sim \ mathsf {Нормальный} (m_y, \, 2.5 \ cdot s_y)
\] где
\ [
m_y =
\ begin {case}
\ bar {y} & \ text {if} \: \: {\ tt family = gaussian (link = "identity")}, \\
0 & \ text {иначе}
\ end {case}
\] и \ (s_y \) то же, что и выше (либо 1, либо \ (\ text {sd (y)} \)).
Вспомогательные параметры
Приоритет по умолчанию для вспомогательного параметра (остаточное стандартное отклонение для гауссиана, форма для гаммы, обратная дисперсия для отрицательного бинома и т. Д.) Является экспоненциальным распределением со скоростью \ (1 / s_y \)
\ [
\ text {aux} \ sim \ mathsf {Exponential} (1 / s_y)
\], где \ (s_y \) то же, что и выше (либо 1, либо \ (\ text {sd (y)} \)).
Это соответствует Prior_aux = exponential (1, autoscale = TRUE)
в коде rstanarm .
Примечание к априори на основе данных
Поскольку масштабирование основано на масштабах предикторов (и, возможно, результата), они технически зависят от данных априорных значений. Однако, поскольку эти априорные значения довольно широки (и в большинстве случаев довольно консервативны), объем используемой информации невелик и в основном учитывает порядок величины переменных. Это позволяет rstanarm предлагать значения по умолчанию, которые подходят для многих моделей.
Отключение предыдущих настроек шкалы
Чтобы отключить автоматическое изменение масштаба, просто укажите предшествующее значение, отличное от значения по умолчанию. rstanarm версий до версии 2.19.3 включительно
раньше требовало, чтобы вы явно установили для аргумента autoscale
значение FALSE
, но теперь автоматическое масштабирование происходит по умолчанию только для априорных значений по умолчанию. Чтобы использовать автомасштабирование с указанными вручную приоритетами, необходимо установить autoscale = TRUE
. Например, эта предыдущая спецификация не будет включать автомасштабирование:
Мы можем проверить, что предыдущие шкалы не были скорректированы, проверив Prior_summary
:
Приоры для модели 'test_no_autoscale'
------
Перехват (после центрирования предикторов)
~ student_t (df = 4, location = 0, scale = 10)
Коэффициенты
~ нормальный (местоположение = [0,0], масштаб = [5,5])
Вспомогательный (сигма)
~ полу-коши (расположение = 0, масштаб = 3)
------
См. Справку ('Prior_summary.stanreg ') подробнее
Неинформативность обычно неоправданна и нереальна (плоская часто бывает легкомысленной и вымышленной)
Когда «неинформативный» или «неинформативный» используется в контексте предшествующих распределений, это обычно относится к плоскому (равномерному) распределению или почти плоскому распределению. Иногда его также можно использовать для обозначения ранее инвариантного к параметризации Джеффриса. Хотя rstanarm не мешает вам использовать очень расплывчатые или плоские априорные значения, если данные не очень сильные, их следует избегать.
Редко бывает уместным в какой-либо прикладной настройке использовать априор, который дает такую же (или почти такую же) вероятностную массу значениям, близким к нулю, поскольку он дает значения, превышающие возраст Вселенной в наносекундах. Даже гораздо более узкое предшествующее, например, нормальное распределение с \ (\ sigma = 500 \), будет иметь тенденцию придавать гораздо большую вероятностную массу необоснованным значениям параметров, чем разумные. Фактически, использование априорного \ (\ theta \ sim \ mathsf {Normal (\ mu = 0, \ sigma = 500)} \) подразумевает некоторые странные априорные убеждения.Например, вы априори полагаете, что \ (P (| \ theta | <250)
250) \), что можно легко проверить, выполнив расчет с обычным CDF
[1] "Pr (-250
или через приближение с тиражами Монте-Карло:
[1] "Pr (-250
d <- data.frame (theta, clr = abs (theta)> 250)
библиотека (ggplot2)
ggplot (d, aes (x = theta, fill = clr)) +
geom_histogram (binwidth = 5, show.легенда = ЛОЖЬ) +
scale_y_continuous (name = "", labels = NULL, expand = c (0,0)) +
scale_x_continuous (имя = выражение (тета), разрывы = c (-1000, -250, 250, 1000))
За пределами интервала (-250, 250) вероятностная масса намного больше.
Это почти никогда не будет соответствовать предыдущим убеждениям исследователя о параметре в четко определенной прикладной регрессионной модели и тем не менее априори вроде \ (\ theta \ sim \ mathsf {Normal (\ mu = 0, \ sigma = 500) } \) (и более экстремальные) остаются довольно популярными.
Даже когда вы знаете очень мало, плоский или очень широкий априор почти никогда не будет лучшим приближением к вашим представлениям о параметрах вашей модели, которые вы можете выразить с помощью rstanarm (или другого программного обеспечения). Будет доступно около предварительной информации. Например, даже если нет ничего, что априори предполагало, что конкретный коэффициент будет положительным или отрицательным, почти всегда имеется достаточно информации, чтобы предположить, что разные порядки величины не равновероятны.Использовать эту информацию при установке предыдущего параметра масштаба просто - одна эвристика - установить масштаб на порядок больше, чем вы предполагаете, - и имеет дополнительное преимущество, помогающее стабилизировать вычисления.
Более подробное обсуждение неинформативных и слабо информативных априорных значений доступно в тематическом исследовании Как форма слабо информативного априорного значения влияет на выводы .
Указание плоской приоры
rstanarm будет использовать плоские приоритеты, если указано NULL
, а не распределение.Например, чтобы использовать плоские предварительные коэффициенты регрессии, вы должны указать Prior = NULL
:
ОТБОР ПРОБ ДЛЯ МОДЕЛИ «непрерывный» ТЕПЕРЬ (ЦЕПЬ 1).
Цепочка 1:
Цепочка 1: оценка градиента заняла 1,4e-05 секунд
Цепочка 1: 1000 переходов с использованием 10 шагов чехарда на переход займет 0,14 секунды.
Цепочка 1: скорректируйте свои ожидания соответственно!
Цепочка 1:
Цепочка 1:
Цепочка 1: Итерация: 1/2000 [0%] (Разминка)
Цепочка 1: Итерация: 200/2000 [10%] (Разминка)
Цепочка 1: Итерация: 400/2000 [20%] (Разминка)
Цепочка 1: Итерация: 600/2000 [30%] (разминка)
Цепочка 1: Итерация: 800/2000 [40%] (Разминка)
Цепочка 1: Итерация: 1000/2000 [50%] (Разминка)
Цепочка 1: Итерация: 1001/2000 [50%] (выборка)
Цепочка 1: Итерация: 1200/2000 [60%] (выборка)
Цепочка 1: Итерация: 1400/2000 [70%] (выборка)
Цепочка 1: Итерация: 1600/2000 [80%] (выборка)
Цепочка 1: Итерация: 1800/2000 [90%] (выборка)
Цепочка 1: Итерация: 2000/2000 [100%] (выборка)
Цепочка 1:
Цепочка 1: Истекшее время: 0.027785 секунд (разминка)
Цепочка 1: 0,026759 секунды (выборка)
Цепочка 1: 0,054544 секунды (всего)
Цепочка 1:
ОТБОР ПРОБ ДЛЯ МОДЕЛИ «непрерывный» ТЕПЕРЬ (ЦЕПЬ 2).
Цепочка 2:
Цепочка 2: оценка градиента заняла 1,5e-05 секунд
Цепочка 2: 1000 переходов с использованием 10 шагов чехарда на переход займет 0,15 секунды.
Цепочка 2: скорректируйте свои ожидания соответственно!
Цепочка 2:
Цепочка 2:
Цепочка 2: Итерация: 1/2000 [0%] (Разминка)
Цепочка 2: Итерация: 200/2000 [10%] (Разминка)
Цепочка 2: Итерация: 400/2000 [20%] (Разминка)
Цепочка 2: Итерация: 600/2000 [30%] (разминка)
Цепочка 2: Итерация: 800/2000 [40%] (Разминка)
Цепочка 2: Итерация: 1000/2000 [50%] (Разминка)
Цепочка 2: Итерация: 1001/2000 [50%] (выборка)
Цепочка 2: Итерация: 1200/2000 [60%] (выборка)
Цепочка 2: Итерация: 1400/2000 [70%] (выборка)
Цепочка 2: Итерация: 1600/2000 [80%] (выборка)
Цепочка 2: Итерация: 1800/2000 [90%] (выборка)
Цепочка 2: Итерация: 2000/2000 [100%] (выборка)
Цепочка 2:
Цепочка 2: Истекшее время: 0.028918 секунд (разминка)
Цепочка 2: 0,027943 секунды (выборка)
Цепочка 2: 0,056861 секунды (всего)
Цепочка 2:
ОТБОР ПРОБ ДЛЯ МОДЕЛИ "непрерывный" СЕЙЧАС (ЦЕПЬ 3).
Цепочка 3:
Цепочка 3: оценка градиента заняла 1,1e-05 секунд
Цепочка 3: 1000 переходов с использованием 10 шагов чехарда на переход займет 0,11 секунды.
Цепочка 3: скорректируйте свои ожидания соответственно!
Цепочка 3:
Цепочка 3:
Цепочка 3: Итерация: 1/2000 [0%] (Разминка)
Цепочка 3: Итерация: 200/2000 [10%] (Разминка)
Цепочка 3: Итерация: 400/2000 [20%] (Разминка)
Цепочка 3: Итерация: 600/2000 [30%] (разминка)
Цепочка 3: Итерация: 800/2000 [40%] (Разминка)
Цепочка 3: Итерация: 1000/2000 [50%] (Разминка)
Цепочка 3: Итерация: 1001/2000 [50%] (выборка)
Цепочка 3: Итерация: 1200/2000 [60%] (выборка)
Цепочка 3: Итерация: 1400/2000 [70%] (выборка)
Цепочка 3: Итерация: 1600/2000 [80%] (выборка)
Цепочка 3: Итерация: 1800/2000 [90%] (выборка)
Цепочка 3: Итерация: 2000/2000 [100%] (выборка)
Цепочка 3:
Цепочка 3: Истекшее время: 0.026017 секунд (разминка)
Цепочка 3: 0,027757 секунды (выборка)
Цепочка 3: 0,053774 секунды (всего)
Цепочка 3:
ОТБОР ПРОБ ДЛЯ МОДЕЛИ "непрерывный" СЕЙЧАС (ЦЕПЬ 4).
Цепочка 4:
Цепочка 4: оценка градиента заняла 9e-06 секунд
Цепочка 4: 1000 переходов с использованием 10 шагов чехарда на переход займет 0,09 секунды.
Цепочка 4: скорректируйте свои ожидания соответственно!
Цепочка 4:
Цепочка 4:
Цепочка 4: Итерация: 1/2000 [0%] (Разминка)
Цепочка 4: Итерация: 200/2000 [10%] (Разминка)
Цепочка 4: Итерация: 400/2000 [20%] (Разминка)
Цепочка 4: Итерация: 600/2000 [30%] (разминка)
Цепочка 4: Итерация: 800/2000 [40%] (Разминка)
Цепочка 4: Итерация: 1000/2000 [50%] (Разминка)
Цепочка 4: Итерация: 1001/2000 [50%] (выборка)
Цепочка 4: Итерация: 1200/2000 [60%] (выборка)
Цепочка 4: Итерация: 1400/2000 [70%] (выборка)
Цепочка 4: Итерация: 1600/2000 [80%] (выборка)
Цепочка 4: Итерация: 1800/2000 [90%] (выборка)
Цепочка 4: Итерация: 2000/2000 [100%] (выборка)
Цепочка 4:
Цепочка 4: Истекшее время: 0.028635 секунд (разминка)
Цепочка 4: 0,029052 секунды (выборка)
Цепочка 4: 0,057687 секунды (всего)
Цепь 4:
В этом случае мы позволяем rstanarm использовать априорные значения по умолчанию для стандартного отклонения пересечения и ошибки (мы могли бы изменить это, если бы захотели), но коэффициент при переменной wt
будет иметь фиксированное значение. Чтобы дважды проверить, действительно ли использовался плоский априор для коэффициента на wt
, мы можем позвонить Prior_summary
:
Приоры для модели 'flat_prior_test'
------
Перехват (после центрирования предикторов)
Уточнено заранее:
~ нормальный (положение = 20, масштаб = 2.5)
Скорректировано до:
~ нормальный (положение = 20, масштаб = 15)
Коэффициенты
~ квартира
Вспомогательный (сигма)
Уточнено заранее:
~ экспоненциальный (коэффициент = 1)
Скорректировано до:
~ экспоненциальный (коэффициент = 0,17)
------
См. Справку ('prior_summary.stanreg') для получения дополнительных сведений.
Хотя априорные значения по умолчанию обычно работают хорошо, рекомендуется разумное использование более информативных априорных значений. Например, предположим, что у нас есть модель линейной регрессии \ [y_i \ sim \ mathsf {Normal} \ left (\ alpha + \ beta_1 x_ {1, i} + \ beta_2 x_ {2, i}, \, \ sigma \ right ) \] и у нас есть доказательства (возможно, из предыдущих исследований по той же теме), что примерно \ (\ beta_1 \ in (-15, -5) \) и \ (\ beta_2 \ in (-1, 1) \).2 \ end {pmatrix}
\верно),
\], который устанавливает априорные средние в середине интервалов, а затем оставляет некоторое пространство для маневра с обеих сторон. Если данные очень информативны о значениях параметров (достаточно, чтобы превзойти предыдущие), тогда этот априорный результат даст аналогичные результаты с неинформативным априорным. Но по мере уменьшения количества данных и / или отношения сигнал / шум использование более информативного предварительного решения становится все более важным.
Если переменные y
, x1
и x2
находятся во фрейме данных dat
, тогда эта модель может быть указана как
Мы оставили априорные значения для интервала пересечения и стандартного отклонения ошибки по умолчанию, но информативные априорные значения могут быть указаны для этих параметров аналогичным образом.
Приоры Приоры
Далее: АНАЛИЗ ЛИНЕЙНЫХ ФАКТОРОВ И Up: Спецификация модели Предыдущая: Обучение с учителем и обучение без учителя Подразделы
Приоры Чтобы применить правило Байеса к обновлению убеждений, необходимо:
иметь некоторые предшествующие убеждения для начала. Эти предыдущие убеждения необходимы
для переменных, которые находятся в начале причинных цепочек
модель.В принципе, априорные вероятности должны суммировать все
информация там доступна. На практике выбор
структура модели часто бывает практичной и не отражает точную
убеждений моделиста, и то же самое верно для предшествующих
вероятности.
Иерархическая модель вместо предшествующей.
При рассмотрении априорной вероятности для переменной первое
вопрос, который нужно задать: действительно ли переменная находится в начале
причинно-следственная цепочка. Часто есть наборы переменных, для которых есть
есть основание полагать, что их ценности зависимы.Это убеждение
легче выразить в терминах структуры модели, чем в терминах предшествующих
вероятность. Можно постулировать скрытую переменную, которая определяет
вероятности для набора зависимых переменных. Проблема
определение априора упрощается, потому что вместо присвоения
отдельный приор для всех переменных в наборе, требуется только один приор
для скрытой переменной. Процесс можно повторять и в конце
обычно остается только несколько переменных, которым требуется априор.
Неинформативные приоры.
Как только все структурные априорные знания используются, обычно
не очень много информации о переменных в начале
причинные цепи. Тогда поучительно рассмотреть так называемые
малоинформативные приоры. Название относится к принципу согласно
которой всем моделям следует `` дать равные шансы '', если нет
информация на выбор между ними. Принцип имеет теоретическое
оправдание только в тех случаях, когда симметрия проблемы предполагает
что модели имеют одинаковую априорную вероятность.В остальных случаях
метод можно рассматривать как практический выбор, который гарантирует, что
пространство гипотез используется эффективно, а обучающая система
изначально был готов поверить в любую из моделей, которые он может представлять.
Для параметров с действительными значениями обычно не рекомендуется просто
выбираем форменную приору по параметрам Проблема снова в том, что
Плотность вероятности не имеет значения как таковая . Нелинейный
преобразование параметра изменяет плотность по-разному для
разные значения параметра.Это означает, что равномерная плотность
не является однородным после преобразования параметра, хотя
повторная параметризация никоим образом не изменяет модель и показывает, что
невозможно оценить неинформативный априор для параметра
не зная, какова роль параметра в модели.
Поучительно рассмотреть, насколько распределение вероятностей
которые модель дает наблюдениям, изменяется, когда параметры
изменения модели. Возьмем, например, гауссовский
распределение, параметризованное средним и стандартным отклонением
.Для этой параметризации относительный эффект изменения
зависит от дисперсии: если большая, то
изменение должно быть большим до присвоения вероятностей для
наблюдения существенно меняются. Если маленький, то маленький
изменение вызывает относительно большое изменение вероятности
задания. Это изображено на рисунках 4а и
4b. Аналогично, рисунки 4c и
4d иллюстрируют, как относительный эффект изменения
дисперсия зависит от дисперсии.
Рисунок 4: Среднее значение распределения изменяет одинаковую величину в (а) и
(б).Точно так же изменения дисперсии равны в (c) и (d).
Относительные изменения больше в (а) и (в).
Величина изменения вероятностей наблюдений, вызванная
изменение параметров можно измерить с помощью информационной матрицы Фишера чьи элементы может быть
определяется как
(24)
Если параметры изменяются на , то
Расстояние Кульбака-Лейблера между старым и новым наблюдением
вероятность .Это означает, что информационная матрица Фишера
индуцирует метрику в пространстве параметров. Это известно как
информационная геометрия [1]. В общем, невозможно
найти параметризацию, которая сделает константа, потому что информационная геометрия обычно не евклидова. Равномерная плотность в пространстве информационной геометрии соответствует
плотность, которая пропорциональна .
Это малоинформативный приор Джеффриса. Для
Гауссова плотность, например, соответствует плотности .Это не обеспечивает должной плотности
потому что нормализующий коэффициент будет бесконечным. Неинформативный
тем не менее, Prior может направлять выбор при выборе. Например,
небольшая корректировка с учетом конечного диапазона для и приведет к априорному, который можно нормализовать.
Информационная матрица Фишера это также
важно, потому что задняя плотность обычно приблизительно
Гауссова и имеют ковариацию, пропорциональную , где N - количество отсчетов.Это свойство можно использовать для модификации оценщика MAP с помощью
умножение апостериорной плотности на объем . Это приводит к приближению
апостериорной вероятностной массы, максимизация которой имеет более прочную
теоретическое обоснование, чем максимизация плотности. это
Примечательно, что в моделях без гиперпараметров комбинация
Априорная и модифицированная оценка Джеффриса MAP равна ML.
оценка.
В пространстве информационной геометрии параметры имеют тенденцию
сферически симметричные гауссовские апостериорные плотности и их асимметрия
имеет тенденцию быть меньше, чем при других параметризациях.Это свойство
полезно для параметрической аппроксимации апостериорных плотностей, поскольку
Гауссовское приближение, которое часто бывает математически удобным, имеет вид
более действительный. С другой стороны, сферическая симметрия может быть
используется в алгоритмах градиентного спуска, потому что это означает, что
градиент указывает на минимум. Градиент, вычисленный в информации
геометрическое пространство известно как естественный градиент, и это было
применяется для обучения нейронных сетей [2].
Далее: АНАЛИЗ ЛИНЕЙНЫХ ФАКТОРОВ И Up: Спецификация модели Предыдущая: Контролируемая vs.обучение без учителя Харри Вальпола
2000-10-31 Предварительная информация для популяционного фармакокинетического и фармакокинетического / фармакодинамического анализа: обзор и руководство с акцентом на подпрограмму NONMEM PRIOR
Определение эталонной модели
Какой бы метод ни использовался для интеграции предыдущих знаний в новую модель, первый шаг состоит в определении наиболее актуальная эталонная модель с эталонными параметрами, которые будут реализованы как предварительные («гиперпараметры»).Если доступно более одной предыдущей модели, эталонная модель может быть выбрана среди них с использованием различных критериев, представленных в разделе «Выбор одной модели». Помимо выбора модели, можно объединить несколько моделей либо в «комбинированную модель», либо с помощью «метаанализа со случайными эффектами» (раздел «Объединение нескольких моделей»). Если доступна только одна предыдущая модель или когда выбрана или построена одна эталонная модель, ее актуальность в качестве эталонной модели можно оценить с помощью методов, представленных в разделе «Устойчивость эталонной модели».
Выбор одной модели
Эмпирический выбор
Если доступно несколько предыдущих моделей, эталонная модель может быть выбрана среди них на основании (i) сходства населения ( например, аналогичных демографических характеристик [6], того же географического региона [ 18]), (ii) количество соответствующих оцененных структурных параметров [12], (iii) уверенность в оценке (оценках) интересующего параметра (ов) в соответствии с планом исследования. Например, Kshirsagar et al.хотел оценить константу поглощения с помощью Prior [35]. Их эталонная модель была построена на самой высокой доле данных (17%) в период раннего поглощения (до 2 часов) по сравнению с другими опубликованными моделями.
Критерии качества байесовской оценки на новых данных
Knosgaard et al. . сравнил литературные модели относительно их производительности в качестве байесовского аттрактора для оценки индивидуальных параметров ПК по новым данным, чтобы выбрать наиболее адаптированную предыдущую модель для использования в подпрограмме PRIOR [9].Во-первых, байесовская оценка индивидуальных параметров ПК для каждой модели была проведена на новых данных (MAXEVAL = 0 на этапе оценки позволяет оценить индивидуальный η в зависимости от начальных оценок). Затем модели были ранжированы по OFV или информационному критерию Акаике (AIC, который применяет штраф к моделям с большим количеством параметров). Для каждой модели плотности распределения отдельных η i сравнивались с теоретическим η-распределением \ (N \) (0, ω 2 ). Было высказано предположение, что модель адекватно описывает новый набор данных, если распределения визуально перекрываются и η-усадка низкая, как показано на рис.1.
Рис. 1 График отдельных η-зазоров (черная линия) поверх теоретического η-распределения N (0, ω 2 ) (пунктирная линия). Модель, приводящая к верхнему графику, должна быть предпочтительнее модели, приводящей к нижнему графику. ETACL: η зазоров. Адаптировано из [43]
Прогностическая эффективность каждой модели может быть оценена с помощью нескольких симуляций, которые затем сравниваются с новыми данными:
Визуальные прогностические проверки (VPC) могут быть построены с новыми данными (внешний VPC).
Нормализованные ошибки распределения прогнозов (NPDE) можно использовать для сравнения смоделированных концентраций с наблюдениями в новом наборе данных [37]. Затем модели можно сравнивать и ранжировать в соответствии с p-значениями тестов, определяющих, следуют ли NPDE нормальному распределению (t-критерий ранжирования знаков Вилкоксона, критерий Фишера для дисперсии, критерий Шапиро-Уилкса). Лучшая прогностическая модель - это та, которая дает наименьшее количество тестов, в которых NPDE отклоняются от нормального распределения.
При систематическом сравнении литературных моделей, проведенном Knosgaard et al., Прогностическая эффективность моделей была более четко дифференцирована по NPDE, чем по VPC.
Объединение нескольких моделей
Мета-анализ со случайным эффектом
Milosheska et al . выполнил метаанализ со случайными эффектами, чтобы определить значения эталонных параметров и их неопределенность [23]. В этом методе значения параметров из структурно идентичных моделей усредняются, взвешиваясь по их неопределенности.В отличие от метаанализа с фиксированным эффектом, метаанализ со случайными эффектами предполагает, что включенные исследования не относятся к одной и той же конкретной популяции, и предполагает, что существует распределение истинной величины эффекта из «вселенной» популяций ( рис. 2 ). Метаанализ со случайными эффектами может быть легко реализован в программе R [38].
Рис. 2 Иллюстрация параметров модели случайных эффектов из [38]. \ (\ widehat {\ theta} \) k = μ + ϵk + ζk (1), \ (\ widehat {\ theta} k \): типичное значение в исследовании k, μ: типичное значение во «вселенной» совокупность, ϵk: отклонение от типичного значения из-за ошибок выборки в исследовании k, ζk: отклонение от типичного значения из-за всеобъемлющего распределения истинных величин эффекта со средним, μ, ζk ~ N (μ, τ 2 )
Комбинированная модель
При необходимости эталонная модель может объединять модели из двух (или более) исследований, имеющих разную направленность и предоставляющих дополнительную информацию.Knosgaard et al. проанализировали как исходное лекарство, так и метаболит: они объединили модель исходного лекарственного средства и модель метаболита, которая показала наилучшие результаты на этапе систематического сравнения моделей для каждой молекулы [9]. Brill et al., . построил модель для количественной оценки эффекта взаимодействия антиретровирусных препаратов на лечение туберкулеза у пациентов с ВИЧ и туберкулезом [7]. Параметры PK противотуберкулезного препарата были основаны на данных двух исследований фазы IIb с участием субъектов, не принимавших антиретровирусные препараты.Параметры эффекта лекарственного взаимодействия основывались на данных двух исследований лекарственного взаимодействия у субъектов без туберкулеза.
Надежность эталонной модели
Критерии качества, перечисленные в разд. 3.1.1 можно оценить на выбранной, построенной или единственной эталонной модели. Внешние VPC также использовались Perez-Ruixo et al. чтобы подтвердить способность модели ПК с аллометрическим масштабированием, разработанной для взрослых, описывать педиатрические данные [26]. VPC с поправкой на внешнее предсказание (pcVPC) использовали Deng et al . и Магнуссон и др. . , чтобы убедиться, что эталонная модель в целом соответствует новым данным [29, 30].
Если предыдущие данные доступны, можно оценить способность эталонной модели оценивать с предварительными некоторыми параметрами на подмножестве данных. Маршалл и др. . использовал подпрограмму PRIOR для построения полумеханистической модели с разреженными данными [15]. Эталонная модель включала модель нейтрофилов и комбинированную модель PK и рецептора (рецептор CD11b). Немногочисленные данные содержали наблюдения нейтрофилов и PK, но не содержали информации о связывании CD11b (ни измерения свободного, ни общего CD11b), в то время как модель не могла быть упрощена по механистическим причинам.Поскольку предыдущие данные были доступны, можно было оценить силу предыдущих оценок параметров связывания CD11b: модель с предшествующим (предыдущая модель как предшествующая) была построена на предыдущих данных без наблюдений, которые позволили оценить данные связывания CD11b. Устойчивость оценивалась путем оценки степени сходства между оценками этой модели и эталонной модели.
Таким образом, в идеале можно было бы выбрать модель, которая лучше всего отвечает поставленной цели ( e.грамм. характеристика ка). Если некоторые модели эквивалентны с точки зрения проблематики, можно либо использовать модель, которая лучше всего описывает новые данные с использованием байесовских критериев качества оценки, либо построить новую модель с метаанализом. В некоторых случаях описываемый процесс требует комбинации двух или более дополнительных моделей, которые имеют разную направленность.
Следует отметить, что эталонные параметры могут быть адаптированы к целевой группе. Например, для анализа фармакокинетики у беременных Lohy Das et al.использовали эталонную модель, построенную как на беременных, так и на небеременных женщинах, которая включала беременность в качестве значимой ковариаты для межкапартаментного клиренса: эталонная оценка межкапартментного клиренса была рассчитана с учетом эффекта беременности [19].
Независимо от выбранной эталонной модели ее надежность следует оценивать с помощью байесовской оценки новых данных и / или внешнего VPC.
Код для предоставления предварительной информации о подпрограмме $ PRIOR
Подпрограмма NWPRI или TNPRI?
Можно вызвать два типа подпрограмм PRIOR: $ PRIOR NWPRI или $ PRIOR TNPRI, в зависимости от предположения о распределении предшествующих параметров.Действительно, априорные параметры можно рассматривать как нормально распределенные или обратно-распределенные Вишарта [3]. В NWPRI (наиболее распространенном) фиксированные параметры THETA предполагаются нормально распределенными, а случайные параметры OMEGA 2 (межиндивидуальная и / или межсезонная изменчивость) предполагаются обратным распределением Вишарта. В TNPRI оба считаются нормально распределенными.
Методическая статья Gisleskog et al. подчеркивает теоретическое преимущество использования TNPRI по сравнению с NWPRI: в отличие от нормально-обратного распределения Уишарта (NWPRI), нормально-нормальное распределение (TNPRI) может выражать корреляции между отдельной информацией об отдельных значениях THETA и OMEGA 2 [ 3].Однако в моделировании и тестах, представленных в этой статье, оба метода показали одинаковый процент отклонения оценок параметров и стандартных ошибок от их истинных значений.
В нашем обзоре только две из 32 статей, анализирующих разреженные данные, использовали TNPRI [15, 29]: в обеих статьях предыдущий анализ был проведен одной и той же командой. Восемнадцать статей [4,5,6,7,8,9,10,11,12,13,14, 23, 25, 27, 30, 32,33,34] использовали NWPRI; в остальных 12 статьях метод не был указан [16,17,18,19,20,21,22, 24, 26, 28, 31, 35], из которых шесть использовались ранее только на THETA [19, 20, 22 , 24, 28, 35], поэтому распределение, приписываемое OMEGA, не имело никакого влияния.
На практике реализация NWPRI в NONMEM намного проще, чем реализация TNPRI. В текущей версии NONMEM 7.4 TNPRI требуется выходной файл из эталонной модели (файл msf), который недоступен при использовании априорных значений из литературы.
Предыдущие значения параметров
Предыдущие значения THETA, OMEGA 2 и SIGMA 2 должны быть записаны и зафиксированы в потоке управления в записях $ THETAP, $ OMEGAP и $ SIGMAP соответственно.В случае наличия ковариаций между n случайными компонентами, матрицы OMEGA 2 и SIGMA 2 должны быть указаны в записях $ OMEGAP BLOCK ( n ) и $ SIGMAP BLOCK (n).
Хотя изменчивость между случаями отличается от изменчивости между индивидуумами, это также случайный эффект, кодируемый с помощью OMEGA. Таким образом, предыдущая межфирменная изменчивость кодируется так же, как и предшествующая межличностная изменчивость.
Обычно реализации априорных значений в SIGMA 2 можно избежать, потому что данные содержат надежную информацию для оценки остаточной ошибки.В большинстве статей остаточная ошибка оценивалась независимо от исходной модели. Только в двух статьях использовались информативные априорные значения для SIGMA 2 [7, 29], но без объяснения причин для этого.
В четырех из 33 рассмотренных статей использовалось логарифмическое преобразование для параметров фиксированного эффекта модели ПК (THETA) [4, 8, 11, 12]. Следует отметить, что три модели «popPBPK» (см. Раздел 3.8) использовали этот подход, чтобы избежать отрицательных значений выборки для клиренса и сродства к ткани [4, 8, 11]. Лог-преобразование обеспечивает стабильность в процессе оценки [12].2, где RSE = SE (THETA) / THETA.
Вес предшествующих
Вес каждого предшествующего в модели определяется распределением предшествующего параметра. Для предполагаемого нормально распределенного априорного параметра вес обратно пропорционален его дисперсии: чем точнее априорный параметр, тем более информативной является модель. Когда предполагается, что априорный параметр имеет обратное распределение Уишарта, его вес пропорционален степени свободы.
Нормально распределенные параметры (предполагаемые для THETA в NWPRI и для THETA и OMEGA 2 для TNPRI) взвешиваются по их матрице дисперсии-ковариации в записи $ THETAPV BLOCK.Когда взвешивается только один нормально распределенный параметр, следует использовать $ THETAPV вместо $ THETAPV BLOCK. Матрица дисперсии-ковариации может быть вычислена из SE предыдущей модели или из непараметрического бутстрапа этой модели, если SE не предоставлены [10]. Большая дисперсия устанавливает неинформативные априорные значения (например, 10 6 [12]). Для информативных априорных значений предпочтительнее использовать полную ковариационную матрицу. Однако эта информация не всегда доступна, и когда она доступна, это может привести к проблемам с минимизацией.В этих случаях для недиагональных элементов следует установить либо 0 [10], либо очень маленькое значение (например, 10 −7 ). Обнуление недиагональных элементов означает отсутствие корреляции между фиксированными и случайными эффектами, что теоретически могло бы привести к потенциальной систематической ошибке в оценках модели, но на сегодняшний день по этой теме ничего не опубликовано.
Распределенные параметры обратного Вишарта (предполагаемые для OMEGA 2 и SIGMA 2 в NWPRI) взвешиваются по степени свободы в записях $ OMEGAPD и $ SIGMAPD.Их значения, как и для нормально распределенных параметров, зависят от предполагаемой априорной информативности. Они могут варьироваться от m + 1, где m - размер матрицы OMEGA или SIGMA, для неинформативных априорных значений, до количества субъектов (для OMEGA) или количества наблюдений (для SIGMA) в предыдущем исследовании для очень информативных априорных значений. Обычно степень свободы для информативных ОМЕГА рассчитывается по формуле df = 2 * [OMEGA 2 / (SE of OMEGA 2 )] 2 + 1 [1, 6, 11, 23, 39].Та же самая формула может быть применена для информативных СИГМА. Степени свободы относятся ко всему блоку OMEGA, включая недиагональные элементы. Тем не менее, это общий или неопределенный параметр силы, который придает большую силу всем элементам блока OMEGA. Если в предыдущем блоке OMEGA задана высокая степень свободы, и в этом блоке 0 вне диагоналей, тогда как данные указывают на сильную недиагональ, анализ может быть скомпрометирован. Если предыдущие данные доступны, степени свободы обратного распределения Уишарта для OMEGA могут быть оценены с использованием максимального правдоподобия на основе функции плотности вероятности обратного распределения Уишарта, например, с пакетами R mle и diwish [7], или как автоматически оценивается при повторной выборке важности выборки (SIR) [40].Цель SIR - приблизить истинную неопределенность параметров [41]. Векторы параметров выбираются из ковариационной матрицы, и модель запускается на данных с каждым набором параметров с использованием максимальной апостериорной байесовской оценки (MAXEVAL = 0). Когда модель строится с использованием предыдущей подпрограммы, ковариационная матрица берется из предыдущей модели. Затем параметры подвергаются повторной выборке в соответствии с коэффициентом важности, вычисленным на предыдущем шаге. Эта передискретизация повторяется. А затем для каждой OMEGA обратное распределение Вишарта может быть адаптировано к распределению передискретизированного OMEGA: степень свободы обратного распределения Вишарта - это та, которая может быть указана в $ OMEGAPD.
На рисунке 3 показано, как кодировать предыдущий вес в контрольном файле. Неинформативное распределение также можно назвать расплывчатым [12], поскольку до тех пор, пока используется априорное распределение, оно остается хотя бы немного информативным.
Рис. 3 Пример кодов управляющего файла NONMEM для реализации подпрограммы PRIOR, NWPRI, информативных и неинформативных априорных точек; как определено Bauer [1] и Gisleskog et al . [3]
Восемь из 32 статей, анализирующих разреженные данные, реализовали информативные априорные значения по всем параметрам [5, 10, 12, 15, 23, 29,30,31], 18 реализовали информативные априорные значения и / или так называемые «Малоинформативны» (когда они связаны с неопределенностью 10% [20] или 50% [24, 28]) только по части параметров [7,8,9, 13, 16,17,18,19,20 , 21,22, 24, 25, 28, 32,33,34,35] и три реализованных неинформативных априорных значения по некоторым параметрам, тогда как информативные априорные значения по остальным параметрам [4, 6, 11].Последнее включало исследование с использованием MCMC [6] и исследование, сравнивающее FOCE с MCMC [4]. В трех статьях не уточняется, насколько информативными были априорные решения [14, 26, 27].
Когда только подмножество параметров оценивается с использованием априорной информации, эти параметры должны быть объявлены первыми в NONMEM: первые n параметров, где n - количество параметров, определенных в операторе $ THETAP и / или $ OMEGAP, будут есть приоры, а по следующим параметрам не будет.
Уменьшение предшествующего веса и даже его подавление полезно для получения максимальной информации от новой популяции.Ковариативный поиск должен проводиться только по параметрам, оцененным без предварительной оценки (см. Раздел 3.6). Более того, если модель с полностью информативными априорными значениями имеет гораздо более высокие оценки межиндивидуальной изменчивости по сравнению с предыдущим значением, это может быть связано с силой предыдущих значений для соответствующих фиксированных эффектов вместе с потенциально другой оценкой параметров популяции в новой популяции. . В этом случае представляется интересным уменьшить априорный вес или удалить априорный вес из этих параметров (как для THETA, так и для OMEGA, если это возможно) [7].
Подходы к удалению априорных значений
Чтобы определить, можно ли оценить параметр без предварительной оценки, можно использовать отношение RSE оценок параметров PK из модели, построенной до RSE из предыдущей модели: если отношение RSE очень small, можно рассмотреть возможность удаления априорного значения соответствующего параметра [15] (см. подход Маршалла и др. , в разделе 3.5).
Стивенс и др. . удалил априорные значения из каждого параметра по очереди. Для каждой переоценки они наблюдали влияние на OFV, а также на значение и точность других параметров [34].Они протестировали априорные значения по двум параметрам и решили оставить априорные по обоим: вместе с падением OFV оставшийся параметр имел правдоподобные значения и меньшие доверительные интервалы. Например, когда они удалили предварительное значение ЕС50 препарата (концентрация, вызывающая половину максимального эффекта Emax), оценка Emax увеличилась в три раза и стала менее правдоподобной.
Knosgaard et al. . также проверил различные комбинации априорных значений (, например, . Априорными на THETA, с или без предшествующих на OMEGA), чтобы выбрать тот, который дает самый низкий OFV [9].
Подходы к выбору априорного веса
Чтобы реализовать наилучший вес априорного веса, Магнуссон и др. . сравнил результаты моделей с информативными априорными значениями, взвешенными, с одной стороны, по заданной 10% неопределенности, а с другой стороны, по их меньшим эталонным погрешностям в терминах VPC (см. Рис. 2 в исходной статье [30]) необъяснимая изменчивость, параметры изменчивости между индивидуумами и случаями. В этом случае модель с 10% -ной неопределенностью, присвоенной параметрам модели, обеспечивала наиболее адекватное описание данных и уменьшала параметры изменчивости.
В своей педиатрической модели Knebel et al. варьировали информативность априорных данных для взрослых, чтобы минимизировать влияние априорной информации для взрослых, но при этом обеспечить стабильную оценку: для половины THETA (неинформативно) была установлена дисперсия 10 6 , а степень свободы OMEGA была зафиксирована для наименьшее возможное значение (размерность матрицы OMEGA) [12].
Krogh-Madsen et al. также протестировали различные значения степени свободы для OMEGA: в оценках параметров были незначительные изменения.Поэтому степень свободы в окончательной модели была установлена на минимально возможное значение, считая ее более подходящей для компенсации выбора распределения (например, , , обратное Wishart) [14].
Подводя итог, NWPRI может быть предпочтительнее TNPRI, если нет сильной корреляции между THETA и OMEGA. Приоры на SIGMA 2 следует избегать. Следует использовать различные комбинации и веса априорных значений, чтобы выбрать тот, который работает лучше всего, т. Е. Дает самый низкий OFV, доверительные интервалы, остаточную изменчивость и имеет лучшую прогностическую способность с помощью VPC.
Объективные функции модели, созданной с предыдущей версией
Выходной файл NONMEM отображает два блока информации для OFV для моделей, созданных с предыдущей версией.
Первый такой же, как полученный с моделями без предшествующих:
ОБЩИЕ ТОЧКИ ДАННЫХ, ОБЫЧНО РАСПРЕДЕЛЕННЫЕ (N)
N * LOG (2PI) ПОСТОЯННАЯ ФУНКЦИЯ ЦЕЛИ
ЦЕЛЕВАЯ ФУНКЦИЯ ЗНАЧЕНИЕ БЕЗ КОНСТАНТЫ: целевая функция данных, включая предыдущий штраф (обычно сообщаемый) = O S + O P
ЦЕЛЬ ФУНКЦИОНАЛЬНОЕ ЗНАЧЕНИЕ С КОНСТАНТОЙ: сумма двух членов выше
Второй относится к моделям, построенным с более ранними версиями:
КОНСТАНТА ДО ОБЪЕКТИВНОЙ ФУНКЦИИ: константы, относящиеся к Wisharts OMEGA, SIGMA и нормальному THETA (соответствующее кратное LOG (2PI))
ЦЕЛЕВАЯ ФУНКЦИЯ ЗНАЧЕНИЕ БЕЗ КОНСТАНТЫ: целевая функция для данных, включая предыдущий штраф (такой же, как и в первом блоке) = O S + O P
ЦЕЛЕВАЯ ЗНАЧЕНИЕ ФУНКЦИИ ПРИ (ПРЕДВАРИТЕЛЬНАЯ) КОНСТАНТА : сумма двух членов выше
Целевая функция с константой используется только для совместимости с тем, как другое программное обеспечение может сообщать OFV.Предыдущий вклад в целевую функцию (предварительный штраф, O P ) включен в отчетные OFV. OFV для данных (O S ) - это сумма отдельных OFV, указанных в файле phi выходных данных NONMEM. O S - это OFV, вычисленное с помощью модифицированной модели (модели, в которой начальные оценки были установлены на окончательные оценки модели, построенной с априорными значениями), запущенной с MAXEVAL = 0 NOPRIOR = 1 (без предварительного определения). Затем O P можно рассчитать как разницу между сообщенным OFV без константы и O S .
После того, как априор используется в базовой модели, общий OFV (который включает априорный штраф) может использоваться в тестах отношения правдоподобия (LRT), если в априорную информацию не вносятся изменения. Таким образом, O S не следует использовать в LRT, поскольку предыдущий был задействован в исходной настройке, поэтому O S сам по себе не является минимальным OFV (а не положением максимальной вероятности).
Следовательно, OFV, который будет использоваться при сравнениях с использованием LRT, - это общий OFV, который сообщается в выходных данных NONMEM (OFV без константы = O S + O P ).
Влияние изменения предшествующего
Milosheska et al. протестировали чувствительность параметров модели [23] (i) к предыдущей спецификации, изменяя предыдущие значения на - 50% и + 50%, и ii) к информативности предшествующей, изменяя точность априорной (SE от От - 50% до + 50%) . Влияние изменения предшествующих значений и точности оценивалось количественно по результирующему изменению оценки затронутого параметра. Чувствительность модели к весу предшественника считалась приемлемой, поскольку оценки параметров оставались в пределах ± 15% диапазона, когда SE варьировалось на ± 50%.Если изменение предыдущего значения приводит к идентичным изменениям в оценках параметров, это означает, что новые данные содержат мало информации об этом параметре: предыдущее значение важно в модели, и его следует тщательно определять и доверять.
Lledo-Garcia et al. также варьировалась точность всех априорных значений (одновременно делалась менее информативной за счет увеличения их ассоциированной дисперсии в десять раз): изменение было ниже 6% в каждой оценке параметра и, таким образом, было квалифицировано как «очень незначительное» [33].
Denti et al. протестировали различные настройки для предварительного распределения, чтобы показать, что оценки других параметров модели не были существенно затронуты [24].
На сегодняшний день не существует стандартизированного метода для количественной оценки влияния на модель изменения стоимости и веса априорной модели. Однако рекомендуется количественно оценить как изменение оценки затронутого параметра, так и стабильность других параметров при изменении предыдущего значения и веса.
Различия в параметрах между предыдущей популяцией и новой популяцией
Параметры, реализованные с помощью априорных значений, должны быть аналогичными в предыдущей и новой популяции.В противном случае новые оценки будут ограничены смещенным значением, что приведет к несоответствию модели, построенной с предыдущей. Кроме того, это может повлиять на оценку других параметров. Фармакометристы использовали разные стратегии для проверки гипотезы о сходстве между параметрами в предыдущей и новой популяциях. Некоторые из этих стратегий также можно использовать для характеристики объема информации, предоставленной новым (разреженным и / или небольшим) набором данных, по сравнению с предыдущей информацией.
Брилл и др. . проверил, показало ли одномерное добавление параметра без предварительной информации какое-либо существенное улучшение OFV для каждого параметра модели, построенной с полным предварительным анализом [7], то есть тестирование каждого параметра, если добавление параметра различия (, например, , названный DIS), рассчитанный на основе новых данных без предварительных данных, значительно улучшил OFV модели, построенной с использованием предыдущих. Для каждого параметра две модели сравниваются с LRT: одна с параметром, оцененным с априорными оценками (DIS = 0), другая с параметром, оцененным с априорным значением, умноженным на (1 + DIS).Это можно сделать с помощью автоматизированного пошагового ковариатного моделирования (SCM) в PsN® [40]: разница в параметрах между предыдущими данными и новыми данными может быть закодирована DIS = 1, отражая разницу между популяциями двух наборов данных [42] ]. Разницу в OFV между двумя моделями следует сравнивать с фактическим уровнем значимости, который можно вычислить с помощью стохастического моделирования и оценки (SSE) в PsN®. Если добавление DIS (оцениваемого только на основе данных) к параметру значительно улучшает OFV, этот параметр отличается для предыдущей и новой популяции.В таком случае более целесообразно либо удалить предшествующее значение из этого параметра, либо принять во внимание DIS. Код для файла конфигурации SCM и команды SSE для текущей ситуации предлагается в онлайн-ресурсе 2. Аналогичным образом, Chotsiri et al. исследовали различия между исследованиями между новым и предыдущим исследованиями, применяя ковариату категориального исследования по всем фармакокинетическим параметрам [18]. Нормализованное по массе тела воздействие было ниже у детей в возрасте от 2 месяцев до 5 лет из нового исследования, чем у детей старшего возраста из контрольной модели.Поскольку данных, собранных в новом исследовании, было недостаточно, чтобы объяснить это несоответствие, к относительной биодоступности была применена категориальная ковариата «исследования». Физиологические объяснения были только гипотезами.
Tsamandouras et al. предложил построить оценки параметров, оцененных с помощью априорных значений, поверх распределений, представляющих имеющиеся априорные знания (априорная неопределенность в параметре модели популяции), чтобы визуализировать степень, в которой эти оценки были изменены с априорных значений [11] (рис.4).
Рис. 4 Пример сюжета, предложенного Цамандурасом и др. . [11], данные из [43]. Оценка THETA (CL) в модели, построенной с использованием Priority, составила 12,7 L.h -1 (черная линия). THETA (CL) в эталонной модели составляла 9,89 л / ч -1 и его стандартное отклонение 3,71 л / ч -1 (пунктирные линии)
Marshall et al . предложил подход, основанный на соотношениях оценок параметров и RSE [15]. Они сравнили каждую оценку параметра PK из модели, построенной по предыдущей модели, с оценкой из предыдущей модели и выявили три случая:
Отношение оценки параметра ~ 1 и отношение соответствующего RSE ~ 1: разреженные данные не дают информации об этом аспекте модели
Отношение оценки параметра ~ 1 и отношение соответствующего RSE <1: разреженные данные добавляют информацию об этом параметре
Отношение оценки параметра ≠ 1 (отношение соответствующего RSE должно быть>> 1): параметр различается между двумя совокупностями; в этом случае параметр не следует оценивать априори.
Этот метод следует применять с осторожностью. Льедо-Гарсия и др. . исследовал отсутствие уменьшения неопределенности по одному параметру по сравнению с предыдущим (отношение RSE близко к единице) [33]. Они зафиксировали параметр, у которого было заметное снижение неопределенности, и оценили LS (продолжительность жизни), параметр, у которого не было уменьшения неопределенности: LS был хорошо оценен без предварительного (низкий RSE). Это показало, что данные действительно содержали информацию о LS. Более того, оценка LS была близка к эталонному значению: эта информация соответствовала предыдущему значению.
Для сравнения распределения фармакокинетических параметров у взрослых и детей Perez-Ruixo et al. использовали «параметрический подход начальной загрузки» для набора данных из 12 детей (12 образцов на каждого ребенка) [26]. Они сравнили оценки модели, построенной до теоретического распределения параметров, которое было бы получено, если бы взрослые и дети имели одинаковое распределение параметров. Это теоретическое распределение было получено с помощью стохастического моделирования (с неопределенностью) и оценки.Во-первых, они смоделировали 1000 (новых) педиатрических наборов данных с неопределенностью, используя распределения параметров непараметрического бутстрапа (эталонной) модели взрослых с аллометрическим масштабированием. Затем они оценили параметры модели, построенной с помощью априорной модели для каждого из 1000 смоделированных наборов данных. Распределение этих оцененных параметров составляет теоретическое распределение. Оценки параметров фиксированного эффекта модели, построенной с помощью априорной модели, находились в пределах 95% доверительного интервала теоретического распределения, что подтвердило сходство точечных оценок фармакокинетических параметров между взрослыми и детьми.Напротив, оценки межгрупповой зависимости и остаточной вариабельности модели, построенной с использованием предшествующей модели, выходили за пределы 95% -ного доверительного интервала теоретического распределения, что не подтверждало сходство распределения параметров PK между взрослыми и детьми. Авторы предложили этот подход для выявления различий в распределении параметров PK между взрослыми и детьми. Однако этот подход сомнительный, поскольку предшествующий ограничивает оценку педиатрических параметров аналогичной оценке взрослых.Если бы существовали различия в параметрах PK между детьми и набором данных для взрослых, их было бы трудно найти, поскольку оценки параметров в наборе данных для детей уже ограничены значениями для взрослых. В этой статье то, что авторы интерпретируют как различие в распределении параметров PK (OMEGA), на самом деле может быть разницей в параметрах PK, компенсируемой завышенным распределением параметров из-за ограниченного смещения в оценках параметров PK.
В случаях, когда модель на новых данных может быть построена без предварительного ( e.грамм. Приоры используются для стабилизации модели и предотвращения триггерной кинетики), ее окончательные значения параметров можно сравнить с таковыми в модели, построенной с помощью предшествующей модели [14, 35].
В случаях, когда доступны предыдущие данные, сходство в распределении параметров PK между популяциями может быть оценено путем сравнения результатов моделей, оцененных без предварительного анализа, на объединенных данных, стратифицированных двумя разными подходами [27]. Первая стратификация - это произвольная дихотомия, которая разбивает объединенный набор данных по совокупности (предыдущая и новая совокупности).Вторая стратификация - это случайная дихотомизация, реализованная подпрограммой MIXTURE в NONMEM, которая идентифицирует две субпопуляции с разными параметрами PK. Если предыдущая и новая популяции идентифицируются как субпопуляции при случайной дихотомизации, предыдущая и новая популяции различаются: модель новой популяции не должна интегрировать предыдущую из предыдущей популяции. Если субпопуляции, идентифицированные при случайной дихотомизации, не соответствуют произвольному разбиению, i.е. есть особи как из предыдущей, так и из новой популяции в каждой субпопуляции, предполагается, что предыдущие и новые данные являются частью одной и той же популяции: вариабельность параметров PK может быть описана ковариатами. В этом случае можно оценить на новых данных модель, построенную на основе предыдущей генеральной совокупности.
В целом выбор метода оценки различий в параметрах между предыдущими и новыми популяциями зависит от ограничений анализа.Если время не является проблемой, тестирование нового исследования как категориальной ковариаты по всем фармакокинетическим параметрам было бы наиболее рекомендуемым подходом, поскольку оно воспроизводимо благодаря автоматизации в PsN. Когда доступны предыдущие данные, сравнение произвольной и случайной стратификаций становится проще.
Интеграция ковариант
Априорная реализация
Ковариаты эталонной модели могут быть априори включены в модель, построенную с использованием априорной модели, особенно если есть твердое убеждение, что они одинаковы в предыдущей и новой совокупности.Например, помимо аллометрического масштабирования, масштабные коэффициенты для недоношенных новорожденных должны оставаться неизменными: можно предпочесть зафиксировать значения масштабного коэффициента на их предыдущих оценках и оценить стандартизованный параметр с предварительным или без предварительного [9]. Однако следует учитывать риск чрезмерной параметризации модели путем введения ковариат на основе предположений.
Приоры могут быть реализованы только для ковариантных эффектов. Али и др. . использовал подпрограмму PRIOR для стабилизации только параметров функции созревания (ковариантные эффекты на клиренс) до физиологически правдоподобных значений, поскольку не было данных для детей младше одного года [20].Аналогичным образом, в своей модели артесуната и дигидроартемизинина PKPD Lohy Das et al. использовали априорные значения для включения эффекта снижения плотности паразитов (, т.е. , эффект малярии) на фармакокинетические параметры, поскольку измерения концентрации отсутствовали после первой дозы [21].
Оценка влияния ковариат, реализованных априори
После реализации априори, влияние ковариат можно оценить с точки зрения их влияния на параметр, например, графически построив параметр по сравнению с ковариатом [7, 9, 12].Необходимо учитывать физиологическое правдоподобие. Чтобы проверить, существенно ли влияет ковариата на модель в новой популяции, неясно, как OFV можно использовать для сравнения между моделями: LRT нельзя использовать для сравнения моделей напрямую с ∆OFV, когда в информацию PRIOR вносятся изменения. [14].
Крог-Мадсен и др. . выбрал для сравнения OFV по данным (O S ). Две модели, построенные с использованием предшествующей модели (одна с использованием предыдущей модели без ковариаты, а другая с использованием предыдущей модели с одной ковариатой), были запущены на новом наборе данных.Затем их оценки параметров были зафиксированы для запуска тех же двух «настроенных» моделей без повторной оценки (MAXEVAL = 0) на одном и том же наборе данных. OFV сравнивали с помощью LRT. Однако, как указано в разд. 3.3, O S не следует сравнивать между вложенными моделями, если для минимизации OFV использовалась предшествующая информация.
Поиск новых ковариат
Пошаговое ковариатное моделирование
Пошаговое ковариатное моделирование вызывает сомнения при использовании подпрограммы PRIOR. В некоторых статьях ковариаты добавлялись к параметрам, оцененным априорными методами с использованием классического пошагового ковариатного моделирования с прямым включением и обратным удалением (например, p <0.05, то есть порог ∆OFV = 3.84 в гипотезе о том, что ∆OFV имеет хи-квадратное распределение) [5, 19, 23]. На практике следует учитывать особые соображения при поиске ковариат для параметров, которые оцениваются с априорными значениями:
с предварительной информацией о THETA, типичные значения параметров должны быть близки к одному из эталонных моделей: если ковариаты не были одинаково распределены в предыдущей и новой совокупности, ковариата должна быть сосредоточена вокруг ее медианы в предыдущий набор данных.В качестве альтернативы можно использовать медианную ковариату нового набора данных, но THETAP должен быть соответствующим образом скорректирован, и важно учитывать, что неопределенность параметра, которая зависит от нормализации, может быть смещена.
с предварительной информацией о ETA, введение ковариаты уменьшило бы межличностную изменчивость меньше, чем если бы межличностная изменчивость оценивалась бы на новом наборе данных.
Насколько это возможно, ковариативный поиск по параметрам модели, оцененным с помощью априорных значений, не должен выполняться: если новые данные статистически слишком слабы для поддержки параметра PK / PD, даже на базовой модели, то статистическая мощность, вероятно, слишком мала для поддержки ковариантного анализа этого параметра.Вместо этого следует искать ковариаты только по параметрам без априорных значений [44]. На первом этапе априорные значения могут быть удалены из всех параметров, которые могут быть оценены без предварительных оценок (см. «Подходы к удалению априорных значений» в разделе 3.2.3). Впоследствии по этим параметрам может быть выполнен ковариативный поиск.
Полное ковариатное моделирование
Робби и др. . использовал подход полного ковариатного моделирования [13]. Оценки ковариантных эффектов были изучены в контексте величины эффекта и точности размера эффекта.Ковариаты сохранялись, если 95% доверительный интервал их оценок, полученных с помощью бутстрапа, не включал 1 (что эквивалентно отсутствию эффекта). Подход ковариантного моделирования, в котором упор делался на оценку параметров, а не на пошаговую проверку гипотез, использовался для этого популяционного PK-анализа, чтобы избежать проблем, связанных с тестом отношения правдоподобия в моделях со смешанным эффектом, включая корреляцию или коллинеарность предикторов, множественные сравнения и искусственная точность параметров.
Проверка модели, построенной с априорными значениями
В большинстве рассмотренных статей проверялись модели, построенные с априорными значениями, с использованием диагностики на основе моделирования (т.е. VPC [5, 6, 9, 11,12,13,14, 17,18,19,20,21,22,23,24, 28, 30,31,32,33,34], pcVPC [8, 10 , 16, 29] и NPDE [9, 25, 29]). Некоторые использовали бутстрап [4, 5, 9, 11,12,13,14, 16,17,18, 20, 23,24,25, 27, 32, 34], SIR [28] и внешнюю проверку [30, 33 , 34].
Важно подчеркнуть, что моделирование с помощью модели, построенной с использованием априорных значений, действительно принимает во внимание априорные факторы для моделирования с неопределенностью. Чтобы моделировать без неопределенности, необходимо отключить априор (который представляет неопределенность параметра совокупности) в настроенной модели.Это выполняется простым удалением априорных значений из файла имитационной модели. Это тот случай, если цель состоит в том, чтобы убедиться, что окончательные оценки адекватно описывают данные. Неопределенность параметров популяции может быть включена для охвата широкого диапазона возможностей, если цель состоит в том, чтобы исследовать все возможные наборы данных, которые могут возникнуть в будущем испытании. Эту функциональность можно использовать на простой модели, построенной без предварительного уведомления, с указанием неопределенности в позициях $ PRIOR.
Популяционный физиологически обоснованный PK (popPBPK)
В трех статьях модели, реализованные в качестве априорных, были физиологически обоснованными фармакокинетическими (PBPK) моделями, поскольку они включали два типа входных данных: системные (физиологические) параметры (, например, кровотоков, объемов органов, тканевых композиций) и параметров, связанных с лекарством ( например, связывание белков плазмы, клиренс и коэффициенты распределения плазмы в ткани (Kp)).
Из этих трех, две были «физиологической моделью ПК всего тела (WBPBPK)» [4, 8], а одна была так называемой «механистической моделью ПК с использованием интегрированного подхода popPBPK» [11], которая включала отсек «остальная часть тела».В этих моделях PBPK параметры, связанные с системой, были фиксированными, поскольку они считались известными на уровне фиксированного эффекта (типичный индивидуальный). Кроме того, параметры, связанные с лекарственными средствами, оценивались априори, поскольку эти параметры были получены из экспериментов in vitro или расчетов in silico и поэтому были связаны с определенной степенью неточности / неточности. В зависимости от модели оценивалась индивидуальная изменчивость клиренса и / или значения (ей) Kp.
По сравнению с полным байесовским анализом в WINBUGS время выполнения было существенно сокращено, а оценки были аналогичными [4].Более того, в отличие от полного байесовского анализа, функция PRIOR позволила оценить некоторые параметры без предварительной оценки, что удобно, когда априорная информация отсутствует для некоторых параметров модели [11].