标记为 gradient-free inference 的帖子
DEMetropolis(Z) 采样器调优
- 2023年1月18日
对于连续变量,默认的 PyMC 采样器 (NUTS
) 需要计算梯度,PyMC 通过自动微分来实现这一点。然而,在某些情况下,PyMC 模型可能未提供梯度(例如,通过在 PyMC 外部评估数值模型),因此需要替代采样器。 DEMetropolisZ
采样器是 gradient-free inference 的有效选择。 PyMC 中 DEMetropolisZ
的实现基于 ter Braak 和 Vrugt [2008],但具有改进的调优方案。 本笔记本比较了采样器的各种调优参数设置,包括 PyMC 中引入的 drop_tune_fraction
参数。
DEMetropolis 和 DEMetropolis(Z) 算法比较
- 2023年1月18日
对于连续变量,默认的 PyMC 采样器 (NUTS
) 需要计算梯度,PyMC 通过自动微分来实现这一点。 然而,在某些情况下,PyMC 模型可能未提供梯度(例如,通过在 PyMC 外部评估数值模型),因此需要替代采样器。 差分进化 (DE) Metropolis 采样器是 gradient-free inference 的有效选择。 本笔记本比较了 PyMC 中的 DEMetropolis
和 DEMetropolisZ
采样器,以帮助确定哪个是给定问题的更好选择。
ODE Lotka-Volterra 与贝叶斯推断的多种方法
- 2023年1月16日
本笔记本的目的是演示如何在常微分方程 (ODE) 系统上执行贝叶斯推断,包括有梯度和无梯度两种情况。 比较了不同采样器的准确性和效率。