物流运筹学:技术及方法应用
上QQ阅读APP看书,第一时间看更新

第三节 物流需求预测的基本方法

一、常用的预测方法

预测可使用的标准化方法很多。这些方法可分为三类:定性法、时间序列分析法和因果分析法。每一类方法产生的逻辑基础不同,对长期和短期预测的相对准确性不同,定量分析的复杂程度也不同。

(一)定性法

定性法具有主观性、判断性的特点。主要是用于中期到长期预测。具体方法主要有:

1.市场调研

市场调研方法是通过各种不同方法(调查、面谈等)搜集数据,检验市场假设是否正确。这种方法在长期预测和新产品销售预测中经常用到。

2.小组共识

小组共识方法是指通过在会议上自由讨论得出预测结果,这种方法的中心思想是认为群体讨论将得出比任何个人所能得到的更好的预测结果。会议参加者可以是高级管理人员、销售人员或顾客。

3.历史类比

历史类比法是指将所预测的对象与类似的产品相联系。利用类似产品的历史数据进行预测,这在设计开发新产品时很重要。

4.德尔菲法

德尔菲法是由一组专家分别对问卷作回答、由组织者汇集调查结果,并形成新的调查问卷,再由该组专家重新回答。由于接受了新的信息,这对这组专家而言也是一个学习过程,而且不存在群体压力或有支配权力的个体对整个群体的影响。

(二)时间序列分析法

基于事件随时间发生的历史数据可以用于预测未来。具体方法有:

1.简单移动平均法

此方法最适合于短期的预测。在预测中,将一段包含一些数据点的时间段求平均,即用该时间段所含数据点的个数去除该段内各点数据值之和。这样一来,每一点对平均值都具有相同的影响力。

2.加权移动平均法

此方法最适合于短期的预测。在预测中,个别数据点的权重可能比其他点高或低,可根据经验而定。

3.指数平滑法

此方法最适合于短期的预测。在预测中,最新数据的权重高于早期数据,此权重因子依指数下降。

4.回归分析

此方法最适合于短期到中期的预测。在预测中,将历史性的数据按数据位随时间变化拟合为一条直线。最常用的拟合法是最小二乘法。

5.鲍克斯·詹金斯(Box-Jenkins)法

此方法最适合于短期到中期的预测。它把各种统计模型与数据结合在一起,利用贝叶斯后验分布将这些模型应用于时间序列分析。

6.希斯金(Shiskin)时间序列

此方法最适合于短期到中期的预测。这是一个将时间序列分解为季节分量、趋势分量和不规则分量的有效方法。该方法需要至少三年的历史数据。该方法对确定公司销售额等拐点识别问题非常有效。

7.趋势外推

趋势外推法最适合于短期到中期的预测。在预测中,使数学方程趋势曲线与数据点相匹配,并将其外推至未来。

(三)因果分析法

因果预测模型的基本前提就是预测变量的水平取决于其他变量的水平。例如,如果已知客户服务对销售有积极影响,那么根据已知客户服务水平就可以推算出销售水平。可以说服务和销售是“因果”关系。

1.回归分析

回归分析比较适合于短期到中期的预测。其与时间序列中的最小二乘法相似,但可能包括多元变量。回归分析的基础是其他事件的发生影响了预测结果。

2.经济模型

经济模型比较适合于中期预测。其试图用一系列相关的方程来描述经济中某些部门之间的关系。

3.投入产出模型

投入产出模型适合于中期的预测。它适用于某家企业影响其他企业销售业绩这种情况下的预测。它给出由于另一家企业的采购变化导致的某一生产企业预期销量的变化情况。

4.先行指标

先行指标适合短期到中期的预测。其统计那些与所预测的序列同方向变动,但其变动发生在所预测的序列变动之前的数据。例如,汽油价格的上涨预示着未来大排量轿车销售的减少。

近年来,随着计算机应用技术的不断发展,又出现了以计算机应用为基础的预测方法,如模拟预测模型、神经网络预测模型等。

模拟预测模型是以计算机为基础的动态模拟。预测人员可以对模型中的内部变量和外部环境进行假设,根据模型中的变量,预测人员可以询问诸如如果价格上涨10%,预测结果将如何变化等问题。

神经网络预测模型是受生物神经功能的启发而形成的数学预测模型。模型的特点是新数据到来后,模型可以进行学习。对于不连续的时间序列,该方法似乎比其他时间序列模型预测得更准确。

二、物流需求预测的典型方法

(一)指数平滑法

短期预测中最有效的方法可能就是指数平滑法。该方法很简单,只需要得到很小的数据量就可以连续使用。指数平滑法在同类预测法中被认为是最精确的,当预测数据发生根本性变化时还可以进行自我调整。指数平滑法是移动平均法的一种,预测中给过去的观测值不一样的权重,较近期观测值的权数比较远期观测值的权数要大。

这种几何权数法可以用简单的表达式表示,表达式中只涉及最近期的预测和当期的实际需求。这样,下一期的预测需求就为:

下一期预测值=α(实际需求值)+(1 -α)(前期的预测值)

其中,α是权数,通常称作指数平滑系数,它的值介于0和1之间。需要注意的是所有历史因素的影响都包含在前期的预测值内。这样,在任何时刻只需保有一个数字就代表了需求的历史情况。

用公式表示为:

上述方程式是用指数平滑法计算预测值的通式。(2-1)式的另一种写法可以帮助我们进一步理解指数平滑法。通过重新调整(2-1)式中的项目,可得:

在这个公式中,用指数平滑法算出的新预测值,仅仅是在原预测值上加上α乘以原预测值误差的积。很明显,当公式中α值趋近于1时,新预测值将包含一个相当大的调整,即用前期预测中所产生的误差进行的调整。相反,当α值趋近于0时,新预测值就没有用前次预测的误差作多大调整。因此α值的大小对预测效果的影响与在计算移动平均数时包括观察值多少对预测效果的影响相同。确定预测值大小的有效方法就是计算不同α值时的预测误差。

(二)回归预测方法(因果分析预测法)

1.相关与回归

世界上各种事物之间或每个事物的各个方面之间总处于两种状态,即有关系或无关系,如果把各种事物或每个事物的各个方面用最能反映其本质特征的变量来表示,那么这些变量之间也只能存在两种状态:有关系或无关系。比如,物料的需求与价格,物料的采购量与需求量,物料的采购成本与销售利润等。如果变量间有关系,而且这关系通常又可以用两种形式表现出来,那就是变量间的确定性关系与变量间的非确定性关系。

变量间的确定性关系又称为变量间的函数关系,如果一些变量之间的关系能用确定的数学公式表示,我们就称这些变量间有确定性关系。比如所采购物料的总额与采购该物料时的单价及数量之间就是确定性关系,再比如某企业年采购物料总数量与该年度企业每月应采购物料总量间也是确定性关系。但在市场采购活动中,各种采购因素间的关系极为复杂,并且经常受一些偶然因素的影响。因此,有关采购的变量之间存在完全确定的函数关系的情况是极为少见的,大部分是在变量之间存在着某种相互联系、相互制约的关系,而这种关系又有某些不确定性,故称这些变量间存在着非确定性关系,也即相关关系。在物资采购中,例如物料的需求量与物料价格之间的关系就是非确定性的相关关系。一般而言,物料价格下降,需求量肯定上升,但我们却不能用确切的函数关系式表示每减少一个单位的价格肯定能增加多少的需求量,而只能用统计的方法表示出对某种物料每降低一个单位的价格,大约能增加多少需求量。再如物料的采购成本与销售利润之间也同样存在着非确定性的相关关系。变量间非确定性的相关关系不能用精确的函数关系式唯一地表达,但在统计学意义上,它们之间的相关关系可以通过统计的方法给出某种函数表达方式,这种处理变量间相关关系的方法就是回归分析方法。回归分析预测法通过大量搜集统计数据,在分析变量间非确定性关系的基础上,找出变量间的统计规律性,并用数学方法把变量间的统计规律较好地表现出来,以便进行必要的预测。

2.一元线性回归预测法

一元线性回归预测是回归预测的基础。当预测对象只受一个主要因素影响,并且它们之间存在着明显的线性相关关系时,通常采用一元线性回归预测法。

(1)预测模型

设变量x与变量y之间有相关关系,且当x确定之后,y有某种不确定性,如果在散点图上可以看出xy之间有线性相关关系,则其相关方程为:

式中:a, b——回归系数。

采用最小二乘法得到a, b的计算公式为:

在物流系统中,这种情况并不特别常见。如果该需求预测是基于一个单一因素的话,它指的就是简单回归分析。使用一个以上的因素时,被称作多元回归。

回归预测利用了主导事件或可预见事件与独立的销售量之间的相关关系。有时,即使一贯表现出高度的相关关系,也不一定存在着相关关系,比如,产品的销售量,就不一定和一些独立的事件存在着相关关系。相关关系假定,某种主导的独立因素,先于预测的销售量,如一种相关产品的销售量。然而,建立在因果关系基础上的销售量回归预测是最可靠的。既然回归预测能够有效地考虑外部的因素和事件,那么因果关系技术就更适合于长期预测或总量预测。例如,它们常被用来作出年度的或全国的销售预测。

3.相关性检验

研究两个变量xy之间是否存在线性相关关系,通常的办法是将独立的n对观测数据(x1, y1),(x2, y2),…,(xn, yn)在坐标上画出散点图,由直观观察进行判断。但这时两个变量的线性相关程度到底有多大,却不得而知。既能判断两个变量线性相关又能回答这两个变量的线性相关程度的方法,还要借助于数理统计分析。

对两个变量的线性相关性的检验可以通过数理统计中的F检验和R检验进行,计算回归平方和与残差平方和所占的比重。F检验,即计算由线性因素引起的变量y的分散程度与由其他因素引起的变量y的分散程度哪个比较大一些;R检验,即计算由线性因素引起的变量y的分散程度与总的变量y的分散程度的比值有多大。

4.多元线性回归预测法

在物流系统中,不仅存在一个因素作用于一个变量的情况,而且多个因素同时作用于某一变量的情况也很常见。如果对前一种情况可以用一元回归分析方法进行有关的预测,那么对后一种情况就可以用多元回归分析方法进行有关的预测。多元线性回归分析方法是一元线性回归理论与技术在多变量线性关系系统中的重要延伸,也是预测中常使用的方法。

多元线性回归分析预测法是对自变量和因变量的n组统计数据(X1i, X2i, …, Xmi; yi)(i=1,2, …, n),在明确因变量y与各个自变量间存在线性相关关系的基础上,给出适宜的回归方程,并据此作出关于因变量y的发展变化趋势的预测。因此,多元线性回归预测法的关键是找到适宜的回归方程。

类似于一元线性回归分析,可以用线性方程

来近似描述yx1, x2, …, xn之间的线性相关关系,它的参数也可以用最小二乘法进行估计。建立一个多元回归模型需要复杂的统计方法,但现在可以使用计算机软件包来根据统计数据建立合适的多元回归方程,这样就会方便很多。

回归分析预测法是利用变量间因果关系进行预测的重要方法之一,除了线性回归分析预测法外,还有非线性回归分析预测法。为了使预测结果比较切合实际,提高预测质量,为决策和计划提供可靠的依据,通常是将定性预测和定量预测两种预测方法相结合。

在物流需求预测中,由于企业中的物流管理者通常是对编制短期计划所需的物流需求进行预测,因此常用时间序列法。

(三)聚焦预测

聚焦预测由伯尼·史密斯(Bernie Smith)首创。此方法主要应用于成品库存管理。

1.聚焦预测方法论

聚焦预测就是根据某些规则进行简单试算,这些规则较符合逻辑,并且将其历史数据外推至未来的过程易于理解。在计算机模拟程序中分别应用所有这些规则进行实际外推需求计算,然后通过将结果与实际需求对比,衡量出运用这些规则来预测的效果如何。由此可见,聚焦预测系统的两要素是:(1)有一些简单的预测规则;(2)利用历史数据对预测规则进行计算机模拟。

下面是一些简单、符合一般常识的规则,可以验证这些规则并确定取舍。预测规则示例可能包括:

(1)过去三个月内的销量为未来三个月内的可能销量;

(2)去年某三个月内的销量为今年同期的可能销量(这也可以解释季节效应);

(3)未来三个月内的销量可能比过去三个月增加10%;

(4)未来三个月内的销量可能比去年同期增加50%;

(5)今年某前三个月销量的变化率(与去年同期相比)等于其后三个月销量的变化率。

上述规则并非固定不变,如果又出现适用的新规则,则将它补充进去。如果某一规则不再适用,则将它剔除。

聚焦预测的第二部分是计算机模拟。要使用该系统,历史数据必须已知,比如已知18至24个月的数据。然后分别按照上述规则进行模拟,预测最近期的历史数据,预测结果最好的那条规则便可用于预测未来。

(四)神经网络预测模型

与传统的预测模型相比,神经网络预测模型是一种隐式模型,它将系统的结构隐含于网络的权值当中,擅长于表达那些只有数据而无法用公式表达的系统。此外,无论系统的模型是何种类型的,用于表达这些神经网络的结构是不变的,因此,对于系统来讲,这是一种“结构固定”的表达方式。即无论对于何种系统,它们的模型都可以放在统一的神经网络框架结构内处理(或描述)。它在结构上的优点,使得它在时间序列问题上有广泛的应用前景。首先,神经网络的训练方式,使得它特别适用于剧烈变化的情况,在这种情况下,它仍能取得较为稳定的模型。其次,神经网络不要求时间序列的间隔一致,这使得样本集更为灵活和适用。最后,神经网络的输入不要求是单一的时间序列数据,还可以是其他各类信息,比如环境因素变化数据、相关因素等。这极大地方便了建模过程,尽可能包含各种有用信息,进而得到更为精确的预测模型。这也是一种信息组合的有效方法。虽然某些方法,如回归分析,也具有一些类似特点,但它们都只适用于线性的或简单的非线性问题。神经网络预测模型的另一优点是计算机程序的实现比较简单,有利于对网络结构进行优化分析,当外界环境或系统本身性质发生剧烈变化时,更新模型亦非常容易。

下面给出具体的建模过程。模型的结构采用三层网络I×H×O,其中I、HO分别是输入层、隐含层和输出层中的节点数。其中输出层O的节点数固定为l,而输入层和隐含层的节点数可以视变量的个数以及预测期由决策者进行调整。

隐含层神经元的作用函数是非线性的,用双曲正切函数表示,即:

输出层神经元的作用函数是一线性函数,即:fx)=x+b;输入层神经元的作用函数为fx)=x。参数b的引进给每一个神经元提供了附加的自由度。

对于网络的训练,通常使用BP算法。

I={1,2, …, m}为输入层节点集,元素用i表示;

H={1,2, …, l}为隐含层节点集,元素用j表示;

O={1,2, …, n}为输出层节点集,元素用k表示;

对预测模型,输出层通常只有一个节点,直接记为k

W1为输入层到隐含层的各边的权系数矩阵,W2为隐含层到输出层的各边的权系数矩阵。当输出层只有一个节点时,W2为一个向量。

第一步:确定输入节点数m,隐含节点数lml的确定没有具体的方法,经验告诉我们,太少的输入节点数会导致网络的不收敛。为了找出合适的网络结构,可用试探法在多种结构中进行优选。

第二步:令t=0,给定允许误差ε,给W1W2赋初值:, 。初值的一般要求是随机、非零、不全相等、数值较小。

第三步:给各节点选定作用函数f。隐含层神经元的作用函数是非线性的,用双曲正切函数,即:fx)=(ex+b-e -x+b/(ex+b+e -x+b),输出层神经元的作用函数是线性函数,即:fx)=x+b;而输入层节点的fx)取线性函数,甚至可直接取fx)=x

第四步:对于某一输入样本X={x1x2xm},计算输入层节点ii=1,2, …, m)的输出ui

ui=fxii=1,2, …,m

第五步:计算隐含层节点jj=1,2, …, l)的输入vj

第六步:计算隐含层节点jj=1,2, …, l)的输出yj

yj=fvjj=1,2, …,l

第七步:计算输出层节点k的输入Zk

第八步:计算输出层节点k的输出Ot):

定义:

式中,Okt)是第t样本组中的输出观测值。即Et是网络输出值与实际观测值之间的误差平方。

第九步:换一组样本,按以下公式修正权系数:

式中:jk是连接隐含层与输出层节点的边上的权系数所对应的梯度向量的分量,ij是连接输入层与隐含层的第j个节点的边上的权系数所对应的梯度向量的分量,η是步长因子,一般小于1。

t=t+1,重复第四至第八步,直至样本用完,得到输出序列{Ot)}t=1,2, …, N(设有N组样本)。

第十步:定义平方型误差函数E并计算其值:

如果E<ε(给定的允许误差),则建模结束。否则,重复第四到第九步,进行另一轮循环。

由上述建模过程可知,BP算法使用多变量优化方法中的梯度下降法来调整权值。权值的调整过程是逐层向前的,利用偏微分的连接规则,使神经网络实际输出与目标输出之间差的平方最小化。

三、预测误差

在预测中,使预测的结果能够尽量与实际情况相符合,是所有预测方法的根本目的。预测结果与实际情况是否相符合的标志就是通过将预测结果与实际情况相比较,得到两者的偏差结果,分析偏差的多少及产生原因,并作为反馈信号以调整和改进所使用的预测模型,使预测的结果与实际情况更相符合。这里的偏差,称之为预测误差,这里的计算、分析、反馈、调整过程,称之为误差分析。

(一)产生误差的原因

预测是要研究事物发展的客观规律,但经过预测得到的规律并不是实际的客观规律,充其量它只是事物过去的规律;即便是在此基础上参照现在的情况推断出来的未来,也毕竟不是现实的未来。事物总是发展变化的,事物的未来是不确定的,它可能发生,也可能不发生,即使发生了,在范围和程度上也很可能与事先的推断有较大的出入。因此,误差在预测中是不可避免的。通常将实际值与预测值之间的差定义为预测值的误差,表示为:

式中:xi——第i时刻的实际值;

——第i时刻的预测值;

ei——第i时刻的预测误差。

在物流需求预测过程中,误差产生的原因是多方面的。主要有:

1.用于预测的信息与资料引起的误差

物流需求预测的信息与资料是通过市场调查得到的,它是进行预测的基础,其质量优劣对预测的结果有直接的影响。对信息与资料的一般要求是系统、完整并真实可靠,否则会产生预测误差。

2.预测方法及预测参数引起的误差

预测是对实际过程的近似描述,同时预测中使用的参数仅仅是对真实参数的近似,不同的预测方法或同一预测方法,使用不同的预测参数,其误差大小是不一样的。因此选择适宜的预测方法及预测参数是减少预测误差的关键之一。为了获得较好的预测结果,人们通常采用多种预测方法或多个预测参数进行多次预测计算。然后用综合评价方法找到实际变动线的最佳趋势预测线或确定最佳的预测方法及预测参数。

3.预测期间的长短引起的误差

预测是根据已知的历史及现实而作出的对未来的描述,但未来是不确定的,影响未来的环境和条件也会与历史及现实有所不同,如果这种差异很大而预测过程中没有估计到,就必然会产生误差。一般预测的期间越长误差越大,减少误差的办法是重视对事物的未来环境与条件的分析,重视事物的转折点并加强对信息与资料的搜集和分析整理。

4.预测者的主观判断引起的误差

预测者的知识、经验和判断能力对预测结果也有很大影响,因为无论是预测目标的制定、信息与资料的搜集整理,还是预测方法的选择、预测参数的确定以及对预测结果的分析都需要有预测者的主观判断。要减少误差就要求预测者具备广泛的知识、丰富的经验、敏锐的观察能力和思考能力以及精确的自我判断能力。

(二)误差的一般计算方法

根据误差的定义,误差的计算方法也有许多,最一般的方法是式(2-14)所表示的方法。另外,常用的误差计算方法还有以下几种:

1.平均误差

几个预测值的误差的平均值称为平均误差。记为MD,其计算方法为:

由于每个e值有正有负,求代数和有时会相互抵消,所以MD无法精确地显示误差。

2.平均绝对误差

几个预测值的误差绝对值的平均值称为平均绝对误差。记为MAD,其计算方法为:

公式中由于每项均为正值,因而弥补了式(2-15)的缺点。

3.相对误差平均值

几个预测值相对误差的平均值称为相对误差平均值。其计算方法为:

式中:——预测值的相对误差。

式(2-17)与式(2-15)有同样的缺点。

4.相对误差绝对值平均值

几个预测值相对误差绝对值的平均值称为相对误差绝对值平均值,其计算方法为:

5.均方差

几个预测值误差平方和的平均值称为均方差,记为S2,其计算方法为:

6.标准差

均方差的平方根称为标准差,记为S,其计算方法为:

在以上几种误差计算方法中,均方差和标准差计算最为常用。

四、特殊的物流需求预测问题

在进行预测需求时常常会遇到一些特殊的问题,如启动问题、不规律需求问题、地区性预测问题和预测误差问题。虽然所有这些问题并不仅仅出现在物流管理中,但对物流管理者来讲,这些都是他们想准确预测需求时非常关心的问题。

(一)预测数据的获取

物流管理者常常面临的问题是需要预测产品和服务的需求水平,但又没有足够的、用于预测的历史数据。常见的情形就是在推出新产品和服务时需要为之提供物流支持。在这种早期预测中会用到以下几种方法:第一种,将最初的预测任务交给营销人员去做,直到积累一定的销售数据。营销部门对促销活动的力度、早期用户的反应、所期待的用户接受程度理解得最透彻。一旦积累了一定的需求历史数据(如6个月的数据),就可以比较有信心地使用现在的预测方法了。第二种,可以利用产品线中类似产品的需求模式估计新产品的销售情况。虽然许多企业平均五年更新一次产品线,但只有少数产品是全新的。多数产品只是改变规格、风格或在现有产品基础上加以改进。所以,以前的需求模式可以为新产品最初的需求预测提供一些启示。第三种,如果使用指数平滑法进行预测,在最初预测阶段可以将指数平滑系数定得很高,在得到了足够的需求历史数据后,再将平滑系数降低到一般水平。

(二)不规律需求

不规律需求模式中的随机波动非常大,以至于其趋势和季节性特征非常模糊。由于各种原因,不规律需求会频繁出现,诸如:需求模式主要以不频繁的大额订单为主;需求由对其他产品和服务的需求决定;没有考虑到季节性需求高峰;需求模式可能由例外点、异常点或特殊情况造成。

从性质上说,由于时间序列波动幅度大,所以很难用数学方法准确预测不规律需求,但可以就如何处理这种情况提出一些建议。第一,寻找导致需求不规律的明显原因,利用这些因素进行预测。将不规律产品的需求预测与其他有规律需求的预测分开,分别使用不同的方法。第二,如果没有找到需求偏移的原因,就不对这类产品或服务需求模式的变化迅速作出反应。相反,要利用简单、平稳的预测方法,如基本的指数平滑法。同时取较小的平滑系数,或者采用回归模型,将模型的频率调整为至少一年以上。第三,因为不规律需求多数发生在低需求产品上,预测精度可能并不是最重要的事。如果用预测来决定库存水平,可以多保有一些库存以抵消预测的不精确。这样做可能比改进预测的努力更经济。

(三)地区性预测

以上讨论的主要是与时间有关的预测,但预测的地理分解或汇总也是值得关注的,即物流管理者必须决定是否进行总量预测,并按地区(如工厂或仓库的供货范围)分配,或者对每一地区单独进行预测。在区域水平上实现最精确预测是人们所关心的问题。

(四)预测误差

最后要考虑的是要充分利用现有的预测方法。目前,讨论集中在对单个模型和方法的利用上。实践中,没有哪个预测模型在所有的时间都是最好的。相反,综合几个模型的结果可能会使预测值更稳定、更准确。