第一篇:erp高級計劃6-aps算法分析之基本概念(二)
《 ERP高級計劃》書的解讀-APS算法分析之基本概念
(二)(蔡穎)
文檔號:00.050.466 時間:05-11-2004
2,功能約束
-市場需求
-物料的可用性
-資源能力 -物流的順序
通常資源約束包括:
(1),市場需求 – 市場需求完全的決定公司的產(chǎn)出。市場決定生產(chǎn)線和生產(chǎn)計劃。銷售的損失是由沒有能力滿足客戶在需要的時間的,需要的價格,需要的質(zhì)量的需求造成的。例如這些約束是客戶的訂單.在許多客戶訂單,有時有不同的優(yōu)先級。APS嚴格的強化處理優(yōu)先級高的訂單。也可以建立軟約束,根據(jù)優(yōu)先級來報警懲罰延遲
(2),物料可用量 – 這是基本的需求。如果供應(yīng)商交貨延遲,或物料有缺陷,生產(chǎn)過程就會中斷。
(3),資源能力 – 機器, 工具,人力必須同步來保證一個平滑的,及時的生產(chǎn)過程流。能力和物料可以是軟約束。額外的能力和物料可以在中期計劃中增加成本可以采購到。然而在短期詳細排程這些約束就是硬約束。瓶頸資源可以改變供應(yīng)的時間或改變需求的時間
(4),物流順序 – 在工藝路徑中,這些包括短暫的約束和順序約束。如在熱處理后,零件必須等待一段時間,才能到下一步?;虬聪群蟠涡蚣s束:先加工訂單1的中間產(chǎn)品,因為,它在訂單2用到。然后在加工訂單 2。
什么是約束?它是一個關(guān)系,在一個約束變量或約束變量之間。這個關(guān)系可以數(shù)字化,符號的,布爾(邏輯),等。例如: - X=1 - X < Y - 2X + 4Y + Z = 2 -(X = 綠)或(Y = 藍)-(X < Y)=>(X < Z)目標函數(shù)就是目標的定義 ;決策變量就是影響的定義 ;約束就是 決策空間的限制。
一般數(shù)學規(guī)劃原理:
1.LP線性規(guī)劃
LP 案例 : 決策問題的模型
一個家具公司的裝配車間生產(chǎn)兩類沙發(fā),標準的和特殊。每一個標準產(chǎn)品需要兩個小時,特殊的沙發(fā)需要三個小時,三個工人每天工作8小時。預(yù)計每天分別需要最大需要6小時和8小時。家具公司的目標是利潤最大化。每單位產(chǎn)品利潤是標準產(chǎn)品500 RMB 和特殊產(chǎn)品是300 RMB!
第一步: 定義決策變量的
每天生產(chǎn)標準沙發(fā)數(shù)量(X)和特殊沙發(fā)(Y)。兩個產(chǎn)品 : -標準沙發(fā) -特殊沙發(fā)
每天可用能力: 3 * 8 = 24 小時;每天預(yù)計最大需求 : -標準沙發(fā): 6 -特殊沙發(fā): 8 每單位消耗能力: -標準沙發(fā): 2 小時 -特殊沙發(fā): 3 小時 利潤:
-標準沙發(fā): 500 RMB -特殊沙發(fā): 300 RMB
第二步: 目標函數(shù) 每天利潤最大化
Z = 500× X + 300 × Y => 最大!
約束條件: -市場需求: X ? 6
Y ? 8
-人工能力: 2 × X + 3 ×Y ? 24 -非-消極的決策變量: X, Y ? 0
圖示解決
最佳解決的特性
每一約束表示的可行方案空間有圖示黃色區(qū)域。目標函數(shù)(點劃線)在不同水平繪出。它被計算為 Y=-5/3 × X + Z, Z 表示為目標函數(shù)的一個固定水平。如果LP的最佳方案總是出現(xiàn)喜在可行區(qū)域的凸處。這里,它達到X =6, Y = 4, 及最大化利潤 4200 RMB.最佳的方案總是出現(xiàn)在頂部區(qū)域。在可行空間的內(nèi)部的點是不能優(yōu)化的。因為目標函數(shù)的線層可以已到最高的目標值。優(yōu)化的方案落在可行區(qū)域的頂部(極點特性)。只有頂部必須被分析來決定優(yōu)化的方案。
這是LP的優(yōu)化方案的特性,來源與有效的算法(單一方法)
注意對一些特別案例,優(yōu)化方案也可以出現(xiàn)在可行區(qū)域的頂點。那么,所有兩個頂點之間的凸結(jié)合是決策問題的優(yōu)化方案。
2.MILP混合整數(shù)線性規(guī)劃
LP和MILP 的唯一不同是一些(或全部)變量可以采用離散值?;旌险麛?shù)線性規(guī)劃沒有頂點特性。具有不同的解決方法。
(完)本文由作者向
AMT提供
第二篇:erp高級計劃2-物料約束和能力約束邏輯(二)
《ERP高級計劃》書解讀系列之APS案例分析一—物料約束和能力約束邏輯
(二)(蔡穎)
2.后推計劃
定義:Latest Possible Start Time(LPST)最遲可能開始時間:生產(chǎn)任務(wù)能開始的最遲日期,但是,仍然能準時完成
計算公式 : LPST = 完成日期-(準備時間+運行時間+常規(guī)緩沖保守時間)每一生產(chǎn)任務(wù)都有一個 LPST 如圖:
3.前推計劃
定義:Earliest Possible Start Time(EPST)最早可能開始時間:任務(wù)可以最早開始日期 計算公式 : EPST = 取最大(服務(wù)開始日期(作業(yè)), 物料可用日期)
4,確認計劃開始時間
定義:Planned Start Time(PST)確認計劃開始時間:希望開始日期,任務(wù)將開始考慮物料可用
公式:PST =最大化(EPST , LPST)
(待續(xù))
第三篇:多種最小二乘算法分析+算法特點總結(jié)
第一部分:程序設(shè)計思路、辨識結(jié)果分析和算法特點總結(jié)................................................2 一:RLS遺忘因子法.................................................................................................2 RLS遺忘因子法仿真思路和辨識結(jié)果.................................................................2 遺忘因子法的特點:..........................................................................................3 二:RFF遺忘因子遞推算法.......................................................................................4 仿真思路和辨識結(jié)果..........................................................................................4 遺忘因子遞推算法的特點:................................................................................5 三:RFM限定記憶法..................................................................................................5 仿真思路和辨識結(jié)果..........................................................................................5 RFM限定記憶法的特點:....................................................................................7 四:RCLS偏差補償最小二乘法..................................................................................7 仿真思路和辨識結(jié)果..........................................................................................7 RCLS偏差補償最小二乘遞推算法的特點:..........................................................9 五:增廣最小二乘法.................................................................................................9 仿真思路和辨識結(jié)果..........................................................................................9 RELS增廣最小二乘遞推算法的特點:................................................................11 六:RGLS廣義最小二乘法.......................................................................................12 仿真思路和辨識結(jié)果........................................................................................12 RGLS廣義最小二乘法的特點:.........................................................................14 七:RIV輔助變量法................................................................................................14 仿真思路和辨識結(jié)果........................................................................................14 RIV輔助變量法的特點:..................................................................................16 八:Cor-ls相關(guān)最小二乘法(二步法)..................................................................17 仿真思路和辨識結(jié)果........................................................................................17 Cor-ls相關(guān)最小二乘法(二步法)特點:........................................................18 九:MLS多級最小二乘法.........................................................................................19 仿真思路和辨識結(jié)果........................................................................................19 MLS多級最小二乘法的特點:...........................................................................22 十:yule_walker辨識算法.....................................................................................23 仿真思路和辨識結(jié)果........................................................................................23 yule_walker辨識算法的特點:.......................................................................24 第二部分:matlab程序..................................................................................................24 一:RLS遺忘因子算法程序.....................................................................................24 二:RFF遺忘因子遞推算法.....................................................................................26 三:RFM限定記憶法................................................................................................28 四:RCLS偏差補償最小二乘遞推算法......................................................................31 五:RELS增廣最小二乘的遞推算法.........................................................................33 六;RGLS 廣義最小二乘的遞推算法..........................................................................36 七:Tally輔助變量最小二乘的遞推算法................................................................39 八:Cor-ls相關(guān)最小二乘法(二步法)..................................................................42 九:MLS多級最小二乘法.........................................................................................45 十yule_walker辨識算法........................................................................................49
第一部分:程序設(shè)計思路、辨識結(jié)果分析和算法特點總結(jié)
一:RLS遺忘因子法
RLS遺忘因子法仿真思路和辨識結(jié)果
仿真對象如下:
其中,v(k)為服從N(0,1)分布的白噪聲。輸入信號u(k)采用M 序列,幅度為 1。M 序列由 9 級移位寄存器產(chǎn)生,x(i)=x(i-4)⊕x(i-9)。選擇如下辨識模型:
加權(quán)陣取Λ = I。
衰減因子β = 0.98,數(shù)據(jù)長度 L = 402。辨識結(jié)果與理論值比較,基本相同。辨識結(jié)果可信: Estimate =-1.4666 0.6503 0.9736 0.3035 遺忘因子法的特點:
對老數(shù)據(jù)加上遺忘因子,以降低老數(shù)據(jù)對辨識的影響,相對增加新數(shù)據(jù)對辨識的影響,不會出現(xiàn)“數(shù)據(jù)飽和”現(xiàn)象。如模型噪聲是有色噪聲,則?是有偏估計量。常用作其他辨識方式的起步,以獲得其他方式的初始值。
二:RFF遺忘因子遞推算法 仿真思路和辨識結(jié)果
辨識模型與遺忘因子法所用模型相同。
其中,0 ≤μ≤1為遺忘因子,此處取0.98。始條件:
參數(shù)a1 a2 b1 b2的估計值: ans =-1.4977 0.6863 1.1903 0.4769 待估參數(shù)變化過程如圖所示:
數(shù)據(jù)長度L=402,初
遺忘因子遞推算法的特點:
從上面兩個例子可以看出對于相同的仿真對象,一次算法和遞推算法結(jié)果基本一致,但遞推算法可以實現(xiàn)在線實時辨識,而且可以減少計算量和存儲量。
三:RFM限定記憶法 仿真思路和辨識結(jié)果
辨識模型與遺忘因子法所用模型相同。
辨識結(jié)果與理論值比較,基本相同。辨識結(jié)果可信: 參數(shù) a1 a2 b1 b2 的估計值為: Theta_a =-1.5128 0.7099 0.8393 0.4416 待估參數(shù)的過渡過程如下:
RFM限定記憶法的特點:
辨識所使用的數(shù)據(jù)長度保持不變,每增加一個新數(shù)據(jù)就拋掉一個老數(shù)據(jù),使參數(shù)估計值始終只依賴于有限個新數(shù)據(jù)所提供的新消息,克服了遺忘因子法不管多老的數(shù)據(jù)都在起作用的缺點,因此該算法更能有效的克服數(shù)據(jù)飽和現(xiàn)象。
四:RCLS偏差補償最小二乘法 仿真思路和辨識結(jié)果
辨識模型與遺忘因子法所用模型相同。
辨識結(jié)果與理論值比較,基本相同。辨識結(jié)果可信: 參數(shù)a1 a2 b1 b2的估計值為: ans =-1.4916
0.7005 1.0365 0.4271
RCLS偏差補償最小二乘遞推算法的特點:
算法思想::在最小二乘參數(shù)估計值的基礎(chǔ)上,引進補償項σW2C-1D ?0,則獲得了參數(shù)的無偏估計。針對模型噪聲來說,RCLS算法的適應(yīng)能力比RLS更好。
五:增廣最小二乘法 仿真思路和辨識結(jié)果
考慮如下仿真對象:
其中,為服從N(0,1)分布的白噪聲。輸入信號采用 M 序列,幅度為 1。M 序列由 9 級移位寄存器產(chǎn)生,x(i)=x(i-4)⊕x(i-9)。
選擇如下的辨識模型:
觀測數(shù)據(jù)長度取L =402。加權(quán)陣取Λ=I。
辨識結(jié)果與理論值比較,基本相同,同時又能獲得噪聲模型的參數(shù)估計。辨識結(jié)果可信:
參數(shù)a1、a2、b1、b2、d1、d2估計結(jié)果:
ans =-1.5000 0.7000 1.0001 0.5002-0.9999 0.2000
RELS增廣最小二乘遞推算法的特點:
增廣最小二乘的遞推算法對應(yīng)的噪聲模型為滑動平均噪聲,擴充了參數(shù)向量和數(shù)據(jù)向量H(k)的維數(shù),把噪聲模型的辨識同時考慮進去。最小二乘法只能獲得過程模型的參數(shù)估計,而增廣最小二乘法
同時又能獲得噪聲模型的參數(shù)估計,若噪聲模型為平均滑動模型,則只能用RELS算法才能獲得無偏估計。當數(shù)據(jù)長度較大時,辨識精度低于極大似然法。
六:RGLS廣義最小二乘法 仿真思路和辨識結(jié)果
模型結(jié)構(gòu)選擇:
模型結(jié)構(gòu)選用:
其中,各個參數(shù)的真值為:
廣義最小二乘算法為:
辨識結(jié)果與理論值比較,基本相同,同時又能獲得噪聲傳遞系數(shù)的參數(shù)估計。辨識結(jié)果可信: 參數(shù)a1 a2 b1 b2的估計結(jié)果: ans =-1.5058 0.6972 0.9316 0.4833
噪聲傳遞系數(shù)c1 c2的估計結(jié)果: ans = 0.6203 0.2210
RGLS廣義最小二乘法的特點:
該算法用于自回歸輸入模型,是一種迭代的算法。其基本思想是基于對數(shù)據(jù)先進行一次濾波處理,后利用普通最小二乘法對濾波后的數(shù)據(jù)進行辨識,進而獲得無偏一致估計。但是當過程的輸出信噪比比較大或模型參數(shù)較多時,這種數(shù)據(jù)白色化處理的可靠性就會下降,辨識結(jié)果往往會是有偏估計。數(shù)據(jù)要充分多,否則辨識精度下降。模型階次不宜過高。初始值對辨識結(jié)果有較大影響。
七:RIV輔助變量法 仿真思路和辨識結(jié)果
辨識模型與遺忘因子法所用模型相同,只不過此處噪聲為有色噪聲,產(chǎn)生過程為:e(k)=v(k)+0.5v(k-1)+0.2v(k-2),v(k)為0均值的不相關(guān)隨機噪聲。
按照Tally法選取輔助變量x(k)=z(k-nd), nd為誤差傳遞函數(shù)的階數(shù),此處為2.則有
輔助變量法的遞推公式可寫成:
辨識結(jié)果與理論值比較,基本相同。辨識結(jié)果可信: 參數(shù)a1 a2 b1 b2的估計結(jié)果: ans =-1.5314 0.7461 0.9999 0.4597
RIV輔助變量法的特點:
適當選擇輔助變量,使之滿足相應(yīng)條件,參數(shù)估計值就可以是無偏一致。估計輔助變量法的計算量與最小二乘法相當,但辨識效果卻比最小二乘法好的多。尤其當噪聲是有色的,而噪聲的模型結(jié)構(gòu)又不好確定時,增廣最小二乘法和廣義最小二乘法一般都不好直接應(yīng)用,因為他們需要選用特定的模型結(jié)構(gòu),而輔助變量法不需要確定噪聲的模型結(jié)構(gòu),因此輔助變量法就顯得更為靈活,但輔助變量法不能同時獲得噪聲模型的參數(shù)估計。
八:Cor-ls相關(guān)最小二乘法(二步法)仿真思路和辨識結(jié)果
辨識模型與遺忘因子法所用模型相同:,e(k)=v(k)+0.5v(k-1)+0.2v(k-2),v(k)為0均值的不相關(guān)隨機噪聲。Cor-ls的遞推公式可寫成:
其中:M(k)為輸入M序列。初始條件:,辨識結(jié)果與理論值比較,基本相同,辨識結(jié)果可信: 參數(shù)a1 a2 b1 b2的估計結(jié)果: ans =-1.4896
0.6858 1.0168 0.4362
Cor-ls相關(guān)最小二乘法(二步法)特點:
把辨識分成兩步進行:第一步:利用相關(guān)分析法獲得對象的非參數(shù)模型(脈沖響應(yīng)或相關(guān)函數(shù));第二步:利用最小二乘法、輔助變量法或增廣最小二乘法等,進一步求的對象的參數(shù)模型。如果模型噪聲與輸入無關(guān),則Cor-ls相關(guān)最小二乘法(二步法)可以得到較好的辨識結(jié)果。Cor-ls相關(guān)最小二乘法(二步法)實質(zhì)上是先對數(shù)據(jù)進行一次相關(guān)分析,濾除了有色噪聲的影響,再利用最小二乘法必然就會改善辨識結(jié)果。能適應(yīng)較寬廣的噪聲范圍,計算量不大,初始值
對辨識結(jié)果影響較小。但要求輸入信號與噪聲不相關(guān)。
九:MLS多級最小二乘法 仿真思路和辨識結(jié)果
仿真對象如下:
其中,u(k)是輸入變量,此處為 M 序列;v(k)是零均值、方差為 1 的不相關(guān)隨機噪聲,通過控制λ的大小來控制信噪比。辨識模型結(jié)構(gòu)選用:
其中,辨識過程如下:
第一級,輔助模型參數(shù)辨識 原模型可寫為:
利用最小二乘法可獲得輔助模型的參數(shù)無偏一致估計值:
數(shù)據(jù)長度 L=400,第二級,過程模型參數(shù)辨識:
根據(jù)最小二乘算法可以獲得過程模型的參數(shù)估計值為:
第三級,噪聲模型參數(shù)辨識:
根據(jù)最小二乘算法可以獲得過程模型的參數(shù)估計值為
辨識結(jié)果與理論值比較,基本相同。辨識結(jié)果可信:
第一級 輔助模型參數(shù) e1 e2 e3 e3 e4 f1 f2 f3 f4 辨識結(jié)果: E = 1.9062 1.4454 0.5279 0.0613-0.0026 0.7988-0.8694-1.3037-0.6318
第二級 過程模型參數(shù) a1 a2 a3 b1 b2 辨識結(jié)果: E2 = 0.9304 0.1596 0.0113 0.7998-1.6502 第三級 噪聲模型參數(shù) c1 c2 辨識結(jié)果: E3 = 0.9750 0.3824 MLS多級最小二乘法的特點:
當信噪比較大時,采用廣義最小二乘法可能會出現(xiàn)多個局部收斂點,解決這個問題的方法可用多級最小二乘法,一般來說多級最小二乘法包含三級辨識過程。利用輸入輸出數(shù)據(jù),通過多級最小二乘法,可分別求的輔助模型,過程模型和噪聲模型的參數(shù)估計值。在高噪聲的情況下,多級最小二乘法明顯優(yōu)于廣義最小二乘法,其收斂點唯一。
十:yule_walker辨識算法 仿真思路和辨識結(jié)果
仿真對象如下:,z(k)是可觀測變量;v(k)是均值為零,方差為 1 的不相關(guān)隨機噪聲;數(shù)據(jù)長度取 L=1024。相關(guān)函數(shù)按下式計算 :
參數(shù)的估計算法按下式計算:
辨識結(jié)果與理論值比較,基本相同,同時又能獲得噪聲模型的參數(shù)估計。辨識結(jié)果可信: 辨識結(jié)果為: Theta = 0.8597 0.2955
-0.0034 d = 1.0025 yule_walker辨識算法的特點:
yule_walker辨識算法可以方便的辨識形如估計值。的參數(shù)第二部分:matlab程序
一:RLS遺忘因子算法程序
clear clc %========================================== %最小二乘法辨識對象
% Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+v(k)%==========產(chǎn)生M序列作為輸入=============== x=[0 1 0 1 1 0 1 1 1];%初始值 n=403;%n為脈沖數(shù)目 M=[];%存放M序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);
for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end;%產(chǎn)生高斯白噪聲 v=randn(1,400);z=[];z(1)=-1;z(2)=0;u=0.98;% 遺忘因子 L=400;for i=3:402 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+v(i-2);zstar(i)=z(i)*u^(L-i+2);end H=zeros(400,4);for i=1:400 H(i,1)=-z(i+1)*u^(L-i);H(i,2)=-z(i)*u^(L-i);H(i,3)=M(i+1)*u^(L-i);H(i,4)=M(i)*u^(L-i);
end Estimate=inv(H'*H)*H'*(zstar(3:402))' 二:RFF遺忘因子遞推算法
%最小二乘遺忘因子的遞推算法仿真對象
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+v(k)%======================================== clear clc %==========400 個產(chǎn)生M序列作為輸入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n為脈沖數(shù)目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end %===========產(chǎn)生均值為0,方差為1 的高斯白噪聲=========
v=randn(1,400);%==============產(chǎn)生觀測序列z================= z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:402 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+v(i-2);end %==============遞推求解================= P=10*eye(4);%估計方差
Theta=zeros(4,401);%參數(shù)的估計值,存放中間過程估值 Theta(:,1)=[0.001;0.001;0.001;0.001];K=zeros(4,400);%增益矩陣 K=[10;10;10;10];u=0.98;%遺忘因子 for i=3:402 h=[-z(i-1);-z(i-2);M(i-1);M(i-2)];K=P*h*inv(h'*P*h+u);Theta(:,i-1)=Theta(:,i-2)+K*(z(i)-h'*Theta(:,i-2));P=(eye(4)-K*h')*P/u;end %==========================輸出結(jié)果及作圖
============================= disp('參數(shù)a1 a2 b1 b2的估計值:')Theta(:,401)i=1:401;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:))title('待估參數(shù)過渡過程')三:RFM限定記憶法
%限定記憶最小二乘的遞推算法辨識對象
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+v(k)%======================================== clear clc %==========產(chǎn)生M序列作為輸入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n為脈沖數(shù)目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2
x(j)=x(j-1);end x(1)=temp;end %===========產(chǎn)生均值為0,方差為1 的高斯白噪聲========= v=randn(1,402);%==============產(chǎn)生觀測序列z================= z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:402 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+v(i);end %遞推求解
P_a=100*eye(4);%估計方差 Theta_a=[3;3;3;3];L=20;%記憶長度
for i=3:L-1 %利用最小二乘遞推算法獲得初步參數(shù)估計值和P陣
h=[-z(i-1);-z(i-2);M(i-1);M(i-2)];K=P_a*h*inv(h'*P_a*h+1);Theta_a=Theta_a+K*(z(i)-h'*Theta_a);
P_a=(eye(4)-K*h')*P_a;end for k=0:380 hL=[-z(k+L-1);-z(k+L-2);M(k+L-1);M(k+L-2)];%增加新數(shù)據(jù)的信息
K_b=P_a*hL*inv(1+hL'*P_a*hL);Theta_b=Theta_a+K_b*(z(k+L)-hL'*Theta_a);P_b=(eye(4)-K_b*hL')*P_a;
hk=[-z(k+L);-z(k+L-1);M(k+L);M(k+L-1);];%去掉老數(shù)據(jù)的信息 K_a=P_b*hk*inv(1+hk'*P_b*hk);Theta_a=Theta_b-K_a*(z(k+L+1)-hk'*Theta_b);P_a=(eye(4)+K_a*hk')*P_b;Theta_Store(:,k+1)=Theta_a;end
%========================輸出結(jié)果及作圖=========================== disp('參數(shù) a1 a2 b1 b2 的估計值為:')Theta_a i=1:381;figure(1)
plot(i,Theta_Store(1,:),i,Theta_Store(2,:),i,Theta_Store(3,:),i,Theta_Store(4,:))title('待估參數(shù)過渡過程')四:RCLS偏差補償最小二乘遞推算法
%偏差補償最小二乘的遞推算法辨識對象
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+v(k)%======================================== clear clc %==========產(chǎn)生M序列作為輸入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n為脈沖數(shù)目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end
%===========產(chǎn)生均值為0,方差為1 的正態(tài)分布噪聲========= v=random('Normal',0,1,1,400);%==============產(chǎn)生觀測序列z================= z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:402 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+v(i-2);end %===================遞推求解================== %賦初值
P=100*eye(4);%估計方差
Theta=zeros(4,401);%參數(shù)的估計值,存放中間過程估值 Theta(:,1)=[3;3;3;3];K=[10;10;10;10];%增益 J=0;ThetaC=zeros(4,401);%偏差補償后的估計值 ThetaC(:,1)=[2;3;1;3.5];D=[1 0 0 0;0 1 0 0;0 0 0 0;0 0 0 0];for i=3:402 h=[-z(i-1);-z(i-2);M(i-1);M(i-2)];J=J+(z(i-1)-h'*Theta(:,i-1))^2/(1+h'*P*h);
K=P*h*inv(h'*P*h+1);Theta(:,i-1)=Theta(:,i-2)+K*(z(i)-h'*Theta(:,i-2));P=(eye(4)-K*h')*P;end es=J/((i-1)*(1+(ThetaC(:,i-2))'*D*Theta(:,i-1)));ThetaC(:,i-1)=Theta(:,i-1)+(i-1)*es*P*D*ThetaC(:,i-2);%==============輸出參數(shù)估計結(jié)果及作圖================ disp('參數(shù)a1 a2 b1 b2的估計值為:')Theta(:,401)i=1:401;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:))title('待估參數(shù)過渡過程')
五:RELS增廣最小二乘的遞推算法
%增廣最小二乘的遞推算法辨識對象
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)-v(k+1)+0.2*v(k)%======================================== clear clc
%==========產(chǎn)生M序列作為輸入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n為脈沖數(shù)目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end %===========產(chǎn)生均值為0,方差為1 的高斯白噪聲========= v=randn(1,402);%==============產(chǎn)生觀測序列z================= z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:402 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)-v(i-1)+0.2*v(i-2);end
%遞推求解
P=100*eye(6);%估計方差
Theta=zeros(6,401);%參數(shù)的估計值,存放中間過程估值 Theta(:,1)=[3;3;3;3;3;3];% K=zeros(4,400);%增益矩陣 K=[10;10;10;10;10;10];for i=3:402 h=[-z(i-1);-z(i-2);M(i-1);M(i-2);v(i-1);v(i-2)];K=P*h*inv(h'*P*h+1);Theta(:,i-1)=Theta(:,i-2)+K*(z(i)-h'*Theta(:,i-2));P=(eye(6)-K*h')*P;end %========================= disp('參數(shù)a1、a2、b1、b2、d1、d2估計結(jié)果:')Theta(:,401)i=1:401;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:),i,Theta(5,:),i,Theta(6,:))title('待估參數(shù)過渡過程')
六;RGLS 廣義最小二乘的遞推算法
%廣義最小二乘的遞推算法仿真模型
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+e(k)%e(k+2)+2.1*e(k+1)-2.5*e(k)=v(k+2)%======================================== clear clc %==========400 個產(chǎn)生M序列作為輸入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n為脈沖數(shù)目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end %===========產(chǎn)生均值為0,方差為1 的高斯白噪聲========= v=randn(1,400);e=[];e(1)=v(1);e(2)=v(2);
for i=3:400 e(i)=0*e(i-1)+0*e(i-2)+v(i);end %==============產(chǎn)生觀測序列z================= z=zeros(400,1);z(1)=-1;z(2)=0;for i=3:400 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+e(i);end %變換后的觀測序列 zf=[];zf(1)=-1;zf(2)=0;for i=3:400 zf(i)=z(i)-0*z(i-1)-0*z(i-2);end %變換后的輸入序列
uf=[];uf(1)=M(1);uf(2)=M(2);for i=3:400 uf(i)=M(i)-0*M(i-1)-0*M(i-2);end
%賦初值
P=100*eye(4);%估計方差
Theta=zeros(4,400);%參數(shù)的估計值,存放中間過程估值 Theta(:,2)=[3;3;3;3];K=[10;10;10;10];%增益 PE=10*eye(2);ThetaE=zeros(2,400);ThetaE(:,2)=[0.5;0.3];KE=[10;10];%遞推Theta for i=3:400 h=[-zf(i-1);-zf(i-2);uf(i-1);uf(i-2)];K=P*h*inv(h'*P*h+1);Theta(:,i)=Theta(:,i-1)+K*(z(i)-h'*Theta(:,i-1));P=(eye(4)-K*h')*P;end he=[-e(i-1);-e(i-2)];%遞推ThetaE KE=PE*he*inv(1+he'*PE*he);ThetaE(:,i)=ThetaE(:,i-1)+KE*(e(i)-he'*ThetaE(:,i-1));PE=(eye(2)-KE*he')*PE;%=====================輸出結(jié)果及作圖
========================= disp('參數(shù)a1 a2 b1 b2的估計結(jié)果:')Theta(:,400)disp('噪聲傳遞系數(shù)c1 c2的估計結(jié)果:')ThetaE(:,400)i=1:400;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:))title('待估參數(shù)過渡過程')七:Tally輔助變量最小二乘的遞推算法
%Tally輔助變量最小二乘的遞推算法
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+e(k),e(k)為有色噪聲
%e(k)=v(k)+0.5*v(k-1)+0.2*v(k-2),v(k)為零均值的不相關(guān)隨機噪聲
%======================================== clear clc %==========產(chǎn)生M序列作為輸入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n為脈沖數(shù)目
M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end %===========產(chǎn)生均值為0,方差為1 的高斯白噪聲========= v=randn(1,400);e=[];e(1)=0.3;e(2)=0.5;for i=3:400 e(i)=v(i)+0.5*v(i-1)+0.2*v(i-2);end %==============產(chǎn)生觀測序列z================= z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:400
z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+e(i);end %遞推求解
P=100*eye(4);%估計方差
Theta=zeros(4,400);%參數(shù)的估計值,存放中間過程估值 Theta(:,1)=[3;3;3;3];Theta(:,2)=[3;3;3;3];Theta(:,3)=[3;3;3;3];Theta(:,4)=[3;3;3;3];% K=zeros(4,400);%增益矩陣 K=[10;10;10;10];for i=5:400 h=[-z(i-1);-z(i-2);M(i-1);M(i-2)];hstar=[-z(i-2-1);-z(i-2-2);M(i-1);M(i-2)];%輔助變量 %遞推算法
K=P*hstar*inv(h'*P*hstar+1);Theta(:,i)=Theta(:,i-1)+K*(z(i)-h'*Theta(:,i-1));P=(eye(4)-K*h')*P;end %==================結(jié)果輸出及作圖=================== disp('參數(shù)a1 a2 b1 b2的估計結(jié)果:')Theta(:,400)
i=1:400;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:))title('待估參數(shù)過渡過程')八:Cor-ls相關(guān)最小二乘法(二步法)
%兩步法的遞推算法
%Z(k+2)=1.5*Z(k+1)-0.7*Z(k)+u(k+1)+0.5*u(k)+e(k),e(k)為零均值的不相關(guān)隨機噪聲
%e(k)=v(k)+0.5*v(k-1)+0.2*v(k-2)%======================================== clear clc %==========產(chǎn)生M序列作為輸入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=403;%n為脈沖數(shù)目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);
end x(1)=temp;end %===========產(chǎn)生均值為0,方差為1 的高斯白噪聲========= v=randn(1,400);e=[];e(1)=0.3;e(2)=0.5;for i=3:400 e(i)=v(i)+0.5*v(i-1)+0.2*v(i-2);end %==============產(chǎn)生觀測序列z=========== z=zeros(402,1);z(1)=-1;z(2)=0;for i=3:400 z(i)=1.5*z(i-1)-0.7*z(i-2)+M(i-1)+0.5*M(i-2)+e(i);end %遞推求解
P=100*eye(4);%估計方差
Theta=zeros(4,400);%參數(shù)的估計值,存放中間過程估值 Theta(:,1)=[3;3;3;3];
Theta(:,2)=[3;3;3;3];Theta(:,3)=[3;3;3;3];Theta(:,4)=[3;3;3;3];K=zeros(4,400);%增益矩陣 K=[10;10;10;10];for i=5:400 h=[-z(i-1);-z(i-2);M(i-1);M(i-2)];hstar=[M(i-1);M(i-2);M(i-3);M(i-4)];%輔助變量 %遞推
K=P*hstar*inv(h'*P*hstar+1);Theta(:,i)=Theta(:,i-1)+K*(z(i)-h'*Theta(:,i-1));P=(eye(4)-K*h')*P;end %==================結(jié)果輸出及作圖=================== disp('參數(shù)a1 a2 b1 b2的估計結(jié)果:')Theta(:,400)i=1:400;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:))title('待估參數(shù)過渡過程')
九:MLS多級最小二乘法
clear clc %========================================== % Z(k+3)=-0.9*Z(k+2)-0.15*Z(k+1)-0.02*z(k)+0.7*u(k+2)-1.5*u(k+1)+e(k)%e(k+2)+1.0*e(k+1)+0.41*e(k)=r*v(k+2)%==========產(chǎn)生M 序列作為輸入=============== x=[0 1 0 1 1 0 1 1 1];%initial value n=405;%n為脈沖數(shù)目 M=[];%存放M 序列 for i=1:n temp=xor(x(4),x(9));M(i)=x(9);for j=9:-1:2 x(j)=x(j-1);end x(1)=temp;end %===========產(chǎn)生均值為0,方差為1 的高斯白噪聲============= v=randn(1,405);
e=[];e(1)=0.3;e(2)=0.7;r=0.9;%控制信噪比 for i=3:405 e(i)=-1.0*e(i-1)-0.41*e(i-2)+r*v(i);end %=================產(chǎn)生觀測序列=================== z=[];z(1)=-1;z(2)=0;z(3)=1.5;for i=4:405 z(i)=-0.9*z(i-1)-0.15*z(i-2)-0.02*z(i-3)+0.7*M(i-1)-1.5*M(i-2)+e(i);end %================第一級辨識 輔助模型參數(shù)辨識================== H=zeros(400,9);for i=1:400 H(i,1)=-z(i+4);H(i,2)=-z(i+3);
H(i,3)=-z(i+2);H(i,4)=-z(i+1);H(i,5)=-z(i);H(i,6)=M(i+4);H(i,7)=M(i+3);H(i,8)=M(i+2);H(i,9)=M(i+1);end disp('第一級 輔助模型參數(shù) e1 e2 e3 e3 e4 f1 f2 f3 f4 辨識結(jié)果:')E=inv(H'*H)*H'*(z(6:405))' e1=E(1);e2=E(2);e3=E(3);e4=E(4);e5=E(5);f1=E(6);f2=E(7);f3=E(8);f4=E(9);%=================第二級辨識 過程模型參數(shù)辨識====================
z2=[f1;f2;f3;f4;0;0;0];H2=[ 0 0 0 1 0;
-f1 0 0 e1 1;
-f2-f1 0 e2 e1;
-f3-f2-f1 e3 e2;
-f4-f3-f2 e4 e3;
0-f4-f3 e5 e4;
0 0-f4 0 e5;];
disp('第二級 過程模型參數(shù) a1 a2 a3 b1 b2 辨識結(jié)果:')E2=inv(H2'*H2)*H2'*z2 a1=E2(1);a2=E2(2);a3=E2(3);b1=E2(4);
b2=E2(5);%================第三級辨識 噪聲模型參數(shù)辨識======================= z3=[e1-a1;e2-a2;e3-a3;e4;e5;f2-b2;f3;f4];H3=[1 0;a1 1;a2 a1;a3 a2;0 a3;b1 0;b2 b1;0 b2;];disp('第三級 噪聲模型參數(shù) c1 c2 辨識結(jié)果:')E3=inv(H3'*H3)*H3'*z3 十yule_walker辨識算法
%Yule-Walker 辨識算法
%辨識模型:z(k)=-0.9*z(k-1)-0.36*z(k-2)-0.054*z(k-3)+v(k)%============== %產(chǎn)生隨機噪聲
v=random('Normal',0,1,1,1024);%均值為零,方差為 1
%產(chǎn)生觀測序列 z=[];z(1)=0;z(2)=1;z(3)=1.5;for i=4:1024 z(i)=-0.9*z(i-1)-0.36*z(i-2)-0.054*z(i-3)+v(i);end %計算 z(k)的自相關(guān)函數(shù) Rz0=0;Rz1=0;Rz2=0;Rz3=0;for i=1:1024 Rz0=Rz0+z(i)^2;end Rz0=Rz0/1024;for i=1:1023 Rz1=Rz1+z(i+1)*z(i);end Rz1=Rz1/1024;for i=1:1022
第四篇:2014年 高級會計師案例分析練習題二
2014年高級會計師案例分析練習題二
參考分析題:
H公司是一家國有控股集團公司,其旗下有甲、乙兩家上市公司,均在深交所上市。為了較好的貫徹集團的發(fā)展戰(zhàn)略,甲乙兩家公司的總經(jīng)理均由H公司的一名副總兼任。為了穩(wěn)定隊伍,實現(xiàn)集團企業(yè)的可持續(xù)發(fā)展,集團決定在下屬的兩家上市公司同時實施股權(quán)激勵制度,并采取股票期權(quán)激勵方案,激勵對象包括公司全體董事、監(jiān)事、高級管理人員和核心(業(yè)務(wù))技術(shù)人員。
甲公司創(chuàng)建于2000年,公司股本總額9 000萬,由于重視技術(shù)研發(fā)和市場開拓,近幾年實現(xiàn)了30%的銷售收入的高速增長,預(yù)計這種勢頭還會繼續(xù)保持下去。在討論股權(quán)激勵方案的具體條款時,相關(guān)人員暢所欲言,最終達成如下主要結(jié)論:
(1)由于公司發(fā)展迅速,為更大程度地激勵員工,決定加大激勵力度,本次全部有效的股權(quán)激勵計劃所涉及的標的股權(quán)數(shù)量累計為1 020萬;
(2)本公司投資部業(yè)務(wù)骨干李某雖然進入公司不滿2年,但業(yè)績突出,亦應(yīng)獲授股票期權(quán)(李某原在另一家上市公司工作,因出現(xiàn)重大違法違規(guī)行為被證監(jiān)會予以行政處罰,隨后向公司提出辭職??紤]到該人業(yè)務(wù)水平非常高,是一個難得的人才,本公司在其辭職后立即以優(yōu)惠條件引進)。會計師考試交流群:244486918
(3)考慮到目前股市低迷,股價未能真實反映公司價值,應(yīng)當全部以回購股份作為股權(quán)激勵的股票來源。
要求:
1.甲公司采用股票期權(quán)激勵方式是否恰當?簡要說明理由。
2.分析本案例中有關(guān)股權(quán)激勵計劃所涉及到的不合法之處。并簡要說明理由。
【分析與提示】
1.恰當。
理由:公司正處于快速成長期,資金需求量大,采取股票期權(quán)方式一方面不會增加企業(yè)的資金壓力;另一方面,激勵對象行權(quán)時還需支付現(xiàn)金。這種激勵方式與公司目前的發(fā)展現(xiàn)狀是相適應(yīng)的。
2.本案例中涉及的不合法之處有:
(1)激勵對象的范圍方面存在不合法之處:
理由:根據(jù)規(guī)定,國有控股上市公司的負責人在上市公司擔任職務(wù)的,可參加股權(quán)激勵計劃,但只能參與一家上市公司的股權(quán)激勵計劃。會計師考試交流群:244486918二是公司的監(jiān)事不得納入股權(quán)激勵計劃范圍;
理由:根據(jù)規(guī)定,國有控股上市公司的監(jiān)事暫不納入股權(quán)激勵計劃。
三是獨立董事不得納入股權(quán)激勵計劃。
理由:根據(jù)規(guī)定,股權(quán)激勵計劃的激勵對象不應(yīng)包括獨立董事。
四是業(yè)務(wù)骨干李某不得納入股權(quán)激勵計劃
理由:根據(jù)規(guī)定,最近3年因重大違法違規(guī)行為被中國證監(jiān)會予以行政處罰的人員,不得成為激勵對象。
(2)股權(quán)激勵計劃所涉及的標的股權(quán)數(shù)量不合法。
理由:根據(jù)規(guī)定,全部有效的股權(quán)激勵計劃所涉及的標的股權(quán)總量累計不得超過股本總額的10%。甲公司總量累計為1 020萬,超過了9 000萬的10%。
(3)全部以回購股份作為股權(quán)激勵的股票來源不合法。
理由:根據(jù)公司法規(guī)定,公司不得收購本公司股票,但將股份獎勵給本公司員工的,可以回購股份,但不得超過本公司已發(fā)行股份總額的5%。甲公司股權(quán)激勵計劃所涉及的股權(quán)數(shù)量已超過5%,不得全部以回購股票作為股權(quán)激勵股票來源。
第五篇:外匯基礎(chǔ)知識二之基本面分析
外匯基礎(chǔ)知識二之基本面分析
時間:2012-12-17作者來源:鈺佳-郭秀美QQ:1094261312
外匯市場的風險
高風險的投資
外匯保證金交易在所有的投資工具中是屬於高風險的投資,但卻是最適合有豐富投資經(jīng)驗的個人與法人的投資工具。網(wǎng)絡(luò)交易平臺可允許使用高額的融資比例杠桿來進行外匯的操作(最高可以到達帳戶現(xiàn)有資本的400倍)。一個美金兩千元的帳戶可以同時買賣相當於市價40萬美元的貨幣,在這個比例的操作下,市場只要有千分之五的變動,這個帳戶很快就會結(jié)束。理論上來說,用最高的融資比例來操作外匯,只要市場有一毛錢的變動,您不但血本無歸,而且損失有可能比原先開戶金額還高。因此,用來操作外匯市場的資金應(yīng)該是不會影響您日常生活或公司營運開銷的閑臵資金。
網(wǎng)上交易的風險
除了上述的風險外,以互聯(lián)網(wǎng)為主體的線上交易系統(tǒng)也有其本身的風險,這包括了硬體、軟體及網(wǎng)路的連線等等。因為交易商并沒有能力控制網(wǎng)路的信號端、接收器、電腦設(shè)定及路徑、與網(wǎng)路連線的穩(wěn)定性,當透過網(wǎng)路下單時,任何連線的失敗或延遲交易商不負任何的責任。交易商都有備份系統(tǒng),以及伺服器當機時的備案來降低發(fā)生的可能性。此外,不論任何狀況發(fā)生,您都可以通過交易商提供的免費國際長途電話來下單。
外匯市場龐大的交易量、高流動性及匯率的變動通常有很強的趨勢,長久以來一直是最受歡迎的投機市場,也許因為這些特性會帶給投資人豐厚的獲利,然而,賺錢的人畢竟是少數(shù),下面幾個原因限制了這些成功的比例:
投資人對獲利可能性的誤判,或是缺乏外匯操作的原則
短線操作并不適合業(yè)馀的投資人,也不是一夜致富最好的管道。貨幣看起來和股票、期貨并不相同,因此并不代表所有投資的規(guī)則和簡單的邏輯都可以套用在外匯市場上。高風險才有高回報,一個高風險的投資計畫,意味著如果無法有穩(wěn)定的獲利,通常就會遭致很大的損失。外匯投資并不容易,如果容易的話,大家都是百萬富翁了。許多經(jīng)驗豐富的外匯投資人仍避免不了定期的損失,因此,學習外匯投資并沒有捷徑,而且需要時間才能精通。外匯投資最大的誘惑在於高杠桿融資比例的使用
保證金交易對某些想要以小搏大的投機客有很大的誘惑。然而,保證金交易是一把雙面利刃的劍,雖然只要美金一千元就可以持有十萬元的貨幣,這并不代表一個一萬元的帳戶就應(yīng)該一次買進五十萬或是一百萬的外匯部位。雖然帳面上看起來好像只要一千元就可以持有十萬元,但是一個十萬元的外匯部位本身就應(yīng)該當作十萬元來看待,而不是只看到一千元保證金而已。很多有經(jīng)驗的投資人能夠正確的分析市場,以及有選出絕佳進場點的能力,但是最後卻往往敗在過度的使用保證金交易,導致他們不得不在最差的價錢下認賠離場。
舉例來說,一個美金一萬元的帳戶,投資人花了一千元的保證金持有一個價值美金十萬元的外匯部位,因此他的比例就是十比一,這是一個相當適合的投資策略,大部分的專業(yè)經(jīng)理人或基金法人所允許使用保證金的比例甚至比這個數(shù)字還低。使用比較小額的保證金比例操作外匯可以使投資人有能力承受許多小額的損失,而不至於到時捉襟見肘。