最近有朋友在学统计分析的时候,碰到了AIC这个词,跑来问我这到底是个啥,为啥大家都说它的值越小越好。我一开始也挺懵的,查了不少资料,现在总算搞明白了点,今天就和大家聊聊这个AIC是怎么回事儿。
AIC,全名叫赤池信息准则,也叫做赤池信息量准则,是个日本统计学家赤池弘次搞出来的东西。它的基本思想很简单,就是帮你在好几个统计模型里挑出那个“最好”的。什么叫好模型呢?就是既能比较好地拟合你的数据,又不会太复杂,用人话说就是“简约且精准”。AIC的公式长得是AIC = 2k - 2ln(L)这个样子,这里面k是你模型里参数的个数,L是似然函数的值。
为啥会有人说AIC值越小越好呢?我琢磨了一下,其实道理就在它的公式里。你看啊,公式右边第一部分2k,它其实是对模型复杂度的惩罚,你的模型参数越多k越大,这部分值就越大,AIC也就跟着变大,说明模型太复杂了不好。第二部分-2ln(L),它反映的是模型拟合数据的优良程度,拟合得越好L越大,这部分值反而越小(因为有个负号),AIC整体也就有变小的趋势。所以AIC值小,就意味着模型用比较少的参数(简洁),达到了比较好的拟合效果(精确),这当然是我们想要的啊!不过得注意,AIC选出来的模型只是几个候选模型里相对好的那个,不代表它本身就能完美刻画数据,万一候选模型都是一堆“烂苹果”,AIC也只能帮你挑个相对不那么烂的。
平常我们做模型选择的时候,AIC经常会被拿来和BIC(贝叶斯信息准则)比较。它俩的公式挺像的,BIC是 BIC = -2ln(L) + ln(n)*k,看出来了吧,区别主要在于对参数个数的惩罚项不一样,BIC那边是ln(n)*k,样本量n大的时候,这个惩罚可比AIC的2k狠多了。这就意味着,BIC更倾向于选择比AIC更简单的模型。有研究专门针对AR模型对比过AIC和BIC的定阶效果,发现AIC定的阶数平均来看会比BIC高一点,甚至有时候会稍微高过真实的阶数,而BIC在样本量很大的情况下定阶会更准确些。所以该用AIC还是BIC,得看你实际的数据情况和分析目的。
另外,像在时间序列分析里,比如用ARIMA模型的时候,AIC对于确定模型的阶数(p和q)特别有用。一般我们的做法是,尝试用不同的p和q值组合去拟合模型,然后分别计算每个组合对应的AIC值,最后就选那个让AIC值最小的p和q的组合。除了AIC,有时候还会看AICc,这是针对小样本情况对AIC做的修正,因为样本量小的时候AIC可能会有偏差,不过当样本量n变大时,AICc就会收敛到AIC。还有QAIC,用于处理过度离散或者缺乏拟合的情况。
最后我想说,AIC确实是个非常得力的工具,帮我我们平衡模型的复杂度和拟合优度。但它也不是万能的,只是一个参考依据。实际用的时候,最好还是结合其他指标比如BIC,以及模型的现实意义一起来判断。希望我这点分享能帮到刚开始接触AIC的朋友们,要是有什么没说清楚的地方,或者你们有更好的经验,咱们可以再一起讨论!

免责声明:网所有文字、图片、视频、音频等资料均来自互联网,不代表本站赞同其观点,内容仅提供用户参考,若因此产生任何纠纷,本站概不负责,如有侵权联系本站删除!
请联系我们邮箱:207985384@qq.com
长沙爱搜电子商务有限公司 版权所有
备案号:湘ICP备12005316号
声明:文章不代表爱搜币圈网观点及立场,不构成本平台任何投资建议。投资决策需建立在独立思考之上,本文内容仅供参考,风险自担!转载请注明出处!侵权必究!