• Sonuç bulunamadı

Bellman Denklemlerine Giri¸s:

N/A
N/A
Protected

Academic year: 2021

Share "Bellman Denklemlerine Giri¸s:"

Copied!
249
0
0

Yükleniyor.... (view fulltext now)

Tam metin

(1)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması:

¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(2)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(3)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, ....

˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(4)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1.

˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(5)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(6)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun.

T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(7)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar.

1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir. Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(8)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(9)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(10)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(11)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (9) = 9 + β ((π)V (9) + (1 − π)V (1))

V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(12)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(13)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(14)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir.

(15)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Bellman Denklemlerine Giri¸s:

C

¸ ok Basit Bir Problem i¸cin Bellman Denkleminin (De˘ger Fonksiyonu ya da Value Function, V ) Yazılması: ¨

Ornek i¸cin Varsayımlar:

Zaman sonsuz ve kesikli: t = 0, 1, 2, .... ˙Indirgeme fakt¨or¨u: 0 < β < 1. ˙Iki t¨uketici olsun.

Ba¸slangı¸c d¨oneminde (t = 0) birinci t¨uketici 9 birim, ikinci t¨uketici ise 1 birim gelire sahip olsun. T¨uketiciler 0 < π < 1 olasılıkla t d¨onemindeki gelirlerini bir sonraki d¨onem olan t + 1’de koruyorlar. 1 − π olasılıkla t d¨onemindeki gelirleri t + 1 d¨oneminde yer de˘gi¸stirmektedir.

Bakınız Ek 1.

Bu durumda Bellman denklemlerini yazabiliriz:

V (9): Ba¸slangı¸c anında 9 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri. V (1): Ba¸slangı¸c anında 1 birim geliri olan t¨uketicinin b¨ugune indirgenmi¸s ¨om¨ur boyu beklenen geliri.

V (9) = 9 + β ((π)V (9) + (1 − π)V (1)) V (1) = 1 + β ((1 − π)V (9) + πV (1))

˙Iki bilinmeyenli iki denklem ¸c¨oz¨ulerek V (9) ve V (1) elde edilir. Bu yazıma ”Recursive Formulation” adı da verilir.

(16)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Dinamik programlama, dinamik optimizasyon y¨ontemlerinden biridir:

Neo-Klasik b¨uy¨ume modeli i¸cin SPP’yi (Social Planner Problemi) Sequential Formda yazalım (basitlik a¸cısından δ = 1 olsun):

max ct ,kt+1 ∞ X t=0 βtU(ct) s.t. ct+ kt+1= f (kt) k0≥ 0 (veri) ct, kt+1≥ 0

Problemi sadece k cinsinden de Sequential Formda yazabiliriz: max kt+1 ∞ X t=0 βtU(f (kt) − kt+1) s.t. 0 ≤ kt+1≤ f (kt) k0≥ 0 (veri)

(17)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Dinamik programlama, dinamik optimizasyon y¨ontemlerinden biridir:

Neo-Klasik b¨uy¨ume modeli i¸cin SPP’yi (Social Planner Problemi) Sequential Formda yazalım (basitlik a¸cısından δ = 1 olsun):

max ct ,kt+1 ∞ X t=0 βtU(ct) s.t. ct+ kt+1= f (kt) k0≥ 0 (veri) ct, kt+1≥ 0

Problemi sadece k cinsinden de Sequential Formda yazabiliriz: max kt+1 ∞ X t=0 βtU(f (kt) − kt+1) s.t. 0 ≤ kt+1≤ f (kt) k0≥ 0 (veri)

(18)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Dinamik programlama, dinamik optimizasyon y¨ontemlerinden biridir:

Neo-Klasik b¨uy¨ume modeli i¸cin SPP’yi (Social Planner Problemi) Sequential Formda yazalım (basitlik a¸cısından δ = 1 olsun):

max ct ,kt+1 ∞ X t=0 βtU(ct) s.t. ct+ kt+1= f (kt) k0≥ 0 (veri) ct, kt+1≥ 0

Problemi sadece k cinsinden de Sequential Formda yazabiliriz: max kt+1 ∞ X t=0 βtU(f (kt) − kt+1) s.t. 0 ≤ kt+1≤ f (kt) k0≥ 0 (veri)

(19)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Dinamik programlama, dinamik optimizasyon y¨ontemlerinden biridir:

Neo-Klasik b¨uy¨ume modeli i¸cin SPP’yi (Social Planner Problemi) Sequential Formda yazalım (basitlik a¸cısından δ = 1 olsun):

max ct ,kt+1 ∞ X t=0 βtU(ct) s.t. ct+ kt+1= f (kt) k0≥ 0 (veri) ct, kt+1≥ 0

Problemi sadece k cinsinden de Sequential Formda yazabiliriz: max kt+1 ∞ X t=0 βtU(f (kt) − kt+1) s.t. 0 ≤ kt+1≤ f (kt) k0≥ 0 (veri)

(20)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Dinamik programlama, dinamik optimizasyon y¨ontemlerinden biridir:

Neo-Klasik b¨uy¨ume modeli i¸cin SPP’yi (Social Planner Problemi) Sequential Formda yazalım (basitlik a¸cısından δ = 1 olsun):

max ct ,kt+1 ∞ X t=0 βtU(ct) s.t. ct+ kt+1= f (kt) k0≥ 0 (veri) ct, kt+1≥ 0

Problemi sadece k cinsinden de Sequential Formda yazabiliriz: max kt+1 ∞ X t=0 βtU(f (kt) − kt+1) s.t. 0 ≤ kt+1≤ f (kt) k0≥ 0 (veri)

(21)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Dinamik programlama, dinamik optimizasyon y¨ontemlerinden biridir:

Neo-Klasik b¨uy¨ume modeli i¸cin SPP’yi (Social Planner Problemi) Sequential Formda yazalım (basitlik a¸cısından δ = 1 olsun):

max ct ,kt+1 ∞ X t=0 βtU(ct) s.t. ct+ kt+1= f (kt) k0≥ 0 (veri) ct, kt+1≥ 0

Problemi sadece k cinsinden de Sequential Formda yazabiliriz: max kt+1 ∞ X t=0 βtU(f (kt) − kt+1) s.t. 0 ≤ kt+1≤ f (kt) k0≥ 0 (veri)

(22)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Dinamik programlama, dinamik optimizasyon y¨ontemlerinden biridir:

Neo-Klasik b¨uy¨ume modeli i¸cin SPP’yi (Social Planner Problemi) Sequential Formda yazalım (basitlik a¸cısından δ = 1 olsun):

max ct ,kt+1 ∞ X t=0 βtU(ct) s.t. ct+ kt+1= f (kt) k0≥ 0 (veri) ct, kt+1≥ 0

Problemi sadece k cinsinden de Sequential Formda yazabiliriz:

max kt+1 ∞ X t=0 βtU(f (kt) − kt+1) s.t. 0 ≤ kt+1≤ f (kt) k0≥ 0 (veri)

(23)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Dinamik programlama, dinamik optimizasyon y¨ontemlerinden biridir:

Neo-Klasik b¨uy¨ume modeli i¸cin SPP’yi (Social Planner Problemi) Sequential Formda yazalım (basitlik a¸cısından δ = 1 olsun):

max ct ,kt+1 ∞ X t=0 βtU(ct) s.t. ct+ kt+1= f (kt) k0≥ 0 (veri) ct, kt+1≥ 0

Problemi sadece k cinsinden de Sequential Formda yazabiliriz: max kt+1 ∞ X t=0 βtU(f (kt) − kt+1) s.t. 0 ≤ kt+1≤ f (kt) k0≥ 0 (veri)

(24)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Dinamik programlama, dinamik optimizasyon y¨ontemlerinden biridir:

Neo-Klasik b¨uy¨ume modeli i¸cin SPP’yi (Social Planner Problemi) Sequential Formda yazalım (basitlik a¸cısından δ = 1 olsun):

max ct ,kt+1 ∞ X t=0 βtU(ct) s.t. ct+ kt+1= f (kt) k0≥ 0 (veri) ct, kt+1≥ 0

Problemi sadece k cinsinden de Sequential Formda yazabiliriz: max kt+1 ∞ X t=0 βtU(f (kt) − kt+1) s.t. 0 ≤ kt+1≤ f (kt) k0≥ 0 (veri)

(25)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Dinamik programlama, dinamik optimizasyon y¨ontemlerinden biridir:

Neo-Klasik b¨uy¨ume modeli i¸cin SPP’yi (Social Planner Problemi) Sequential Formda yazalım (basitlik a¸cısından δ = 1 olsun):

max ct ,kt+1 ∞ X t=0 βtU(ct) s.t. ct+ kt+1= f (kt) k0≥ 0 (veri) ct, kt+1≥ 0

Problemi sadece k cinsinden de Sequential Formda yazabiliriz: max kt+1 ∞ X t=0 βtU(f (kt) − kt+1) s.t. 0 ≤ kt+1≤ f (kt) k0≥ 0 (veri)

(26)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Neo-Klasik B¨uy¨ume Neden Recursive Formdadır?

C¸ ¨unk¨u her d¨onem ba¸slangı¸c ”k” de˘geri de de˘gi¸sse de hep aynı yukarıda tanımlanan problem ¸c¨oz¨ul¨ur: 0. d¨onemde k0veri iken faydayı maksimize eden k1se¸cilir.

Daha sonra 1. d¨onemde k1veri iken aynı problemde faydayı maksimizde eden k2se¸cilir.

Daha sonra 2. d¨onemde k2veri iken aynı problemde faydayı maksimizde eden k3se¸cilir.

Bu mantık genellenirse, her d¨onem sadece ba¸slangı¸c de˘geri de˘gi¸sen aynı problemi ¸c¨ozd¨u˘g¨um¨uzden bu problem Recursive formda tanımlanabilir.

(27)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Neo-Klasik B¨uy¨ume Neden Recursive Formdadır?

C¸ ¨unk¨u her d¨onem ba¸slangı¸c ”k” de˘geri de de˘gi¸sse de hep aynı yukarıda tanımlanan problem ¸c¨oz¨ul¨ur:

0. d¨onemde k0veri iken faydayı maksimize eden k1se¸cilir.

Daha sonra 1. d¨onemde k1veri iken aynı problemde faydayı maksimizde eden k2se¸cilir.

Daha sonra 2. d¨onemde k2veri iken aynı problemde faydayı maksimizde eden k3se¸cilir.

Bu mantık genellenirse, her d¨onem sadece ba¸slangı¸c de˘geri de˘gi¸sen aynı problemi ¸c¨ozd¨u˘g¨um¨uzden bu problem Recursive formda tanımlanabilir.

(28)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Neo-Klasik B¨uy¨ume Neden Recursive Formdadır?

C¸ ¨unk¨u her d¨onem ba¸slangı¸c ”k” de˘geri de de˘gi¸sse de hep aynı yukarıda tanımlanan problem ¸c¨oz¨ul¨ur: 0. d¨onemde k0veri iken faydayı maksimize eden k1se¸cilir.

Daha sonra 1. d¨onemde k1veri iken aynı problemde faydayı maksimizde eden k2se¸cilir.

Daha sonra 2. d¨onemde k2veri iken aynı problemde faydayı maksimizde eden k3se¸cilir.

Bu mantık genellenirse, her d¨onem sadece ba¸slangı¸c de˘geri de˘gi¸sen aynı problemi ¸c¨ozd¨u˘g¨um¨uzden bu problem Recursive formda tanımlanabilir.

(29)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Neo-Klasik B¨uy¨ume Neden Recursive Formdadır?

C¸ ¨unk¨u her d¨onem ba¸slangı¸c ”k” de˘geri de de˘gi¸sse de hep aynı yukarıda tanımlanan problem ¸c¨oz¨ul¨ur: 0. d¨onemde k0veri iken faydayı maksimize eden k1se¸cilir.

Daha sonra 1. d¨onemde k1veri iken aynı problemde faydayı maksimizde eden k2se¸cilir.

Daha sonra 2. d¨onemde k2veri iken aynı problemde faydayı maksimizde eden k3se¸cilir.

Bu mantık genellenirse, her d¨onem sadece ba¸slangı¸c de˘geri de˘gi¸sen aynı problemi ¸c¨ozd¨u˘g¨um¨uzden bu problem Recursive formda tanımlanabilir.

(30)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Neo-Klasik B¨uy¨ume Neden Recursive Formdadır?

C¸ ¨unk¨u her d¨onem ba¸slangı¸c ”k” de˘geri de de˘gi¸sse de hep aynı yukarıda tanımlanan problem ¸c¨oz¨ul¨ur: 0. d¨onemde k0veri iken faydayı maksimize eden k1se¸cilir.

Daha sonra 1. d¨onemde k1veri iken aynı problemde faydayı maksimizde eden k2se¸cilir.

Daha sonra 2. d¨onemde k2veri iken aynı problemde faydayı maksimizde eden k3se¸cilir.

Bu mantık genellenirse, her d¨onem sadece ba¸slangı¸c de˘geri de˘gi¸sen aynı problemi ¸c¨ozd¨u˘g¨um¨uzden bu problem Recursive formda tanımlanabilir.

(31)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Neo-Klasik B¨uy¨ume Neden Recursive Formdadır?

C¸ ¨unk¨u her d¨onem ba¸slangı¸c ”k” de˘geri de de˘gi¸sse de hep aynı yukarıda tanımlanan problem ¸c¨oz¨ul¨ur: 0. d¨onemde k0veri iken faydayı maksimize eden k1se¸cilir.

Daha sonra 1. d¨onemde k1veri iken aynı problemde faydayı maksimizde eden k2se¸cilir.

Daha sonra 2. d¨onemde k2veri iken aynı problemde faydayı maksimizde eden k3se¸cilir.

Bu mantık genellenirse, her d¨onem sadece ba¸slangı¸c de˘geri de˘gi¸sen aynı problemi ¸c¨ozd¨u˘g¨um¨uzden bu problem Recursive formda tanımlanabilir.

(32)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Bu problemin ”Bellman denklemini” ya da ”Recursive formunu” (zaman indislerinden arındırıp) ¸s¨oyle yazabiliriz:

V (k) = max

0≤k0 ≤f (k)

U(f (k) − k0) + βV (k0)

V (k), cari d¨onemde elinde k sermaye stoku bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi bug¨une indirgenmi¸s (optimal) faydayı temsil etmektedir.

V (k) denklemi Bellman Denklemi ya da De˘ger Fonksiyonu (Value Function) ya da Recursive Formulation olarak adlandırılmaktadır.

k cari d¨onemindeki sermaye stokunu g¨ostermekte olup durum (state) degi¸skenidir. Cari d¨onemdeki t¨um bilgileri durum de˘gi¸skeni yani k ¨ozetler.

k0ise bir sonraki d¨onemdeki sermaye stokunu g¨osterir. Se¸cim (control/choice) de˘gi¸skenidir. g (k) = k0policy function (politika fonksiyonu) olarak adlandırılmaktadır.

Bu fonksiyon, cari d¨onemde k bilindi˘ginde bir sonraki d¨onem i¸cin optimal k0miktarını verir. Daha genel bir ifadeyle ”Recursive Formulation” ¸su ¸sekilde yazılabilir:

V (x ) = max

x 0 ∈XU(x , x 0

) + βV (x0)

Burada x :durum (state) de˘gi¸skeni; x0: kontrol (control) de˘gi¸skeni ve x0∈ X kontrol/se¸cim de˘gi¸skeni ¨uzerindeki kısıttır.

(33)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Bu problemin ”Bellman denklemini” ya da ”Recursive formunu” (zaman indislerinden arındırıp) ¸s¨oyle yazabiliriz:

V (k) = max

0≤k0 ≤f (k)

U(f (k) − k0) + βV (k0)

V (k), cari d¨onemde elinde k sermaye stoku bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi bug¨une indirgenmi¸s (optimal) faydayı temsil etmektedir.

V (k) denklemi Bellman Denklemi ya da De˘ger Fonksiyonu (Value Function) ya da Recursive Formulation olarak adlandırılmaktadır.

k cari d¨onemindeki sermaye stokunu g¨ostermekte olup durum (state) degi¸skenidir. Cari d¨onemdeki t¨um bilgileri durum de˘gi¸skeni yani k ¨ozetler.

k0ise bir sonraki d¨onemdeki sermaye stokunu g¨osterir. Se¸cim (control/choice) de˘gi¸skenidir. g (k) = k0policy function (politika fonksiyonu) olarak adlandırılmaktadır.

Bu fonksiyon, cari d¨onemde k bilindi˘ginde bir sonraki d¨onem i¸cin optimal k0miktarını verir. Daha genel bir ifadeyle ”Recursive Formulation” ¸su ¸sekilde yazılabilir:

V (x ) = max

x 0 ∈XU(x , x 0

) + βV (x0)

Burada x :durum (state) de˘gi¸skeni; x0: kontrol (control) de˘gi¸skeni ve x0∈ X kontrol/se¸cim de˘gi¸skeni ¨uzerindeki kısıttır.

(34)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Bu problemin ”Bellman denklemini” ya da ”Recursive formunu” (zaman indislerinden arındırıp) ¸s¨oyle yazabiliriz:

V (k) = max

0≤k0 ≤f (k)

U(f (k) − k0) + βV (k0)

V (k), cari d¨onemde elinde k sermaye stoku bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi bug¨une indirgenmi¸s (optimal) faydayı temsil etmektedir.

V (k) denklemi Bellman Denklemi ya da De˘ger Fonksiyonu (Value Function) ya da Recursive Formulation olarak adlandırılmaktadır.

k cari d¨onemindeki sermaye stokunu g¨ostermekte olup durum (state) degi¸skenidir. Cari d¨onemdeki t¨um bilgileri durum de˘gi¸skeni yani k ¨ozetler.

k0ise bir sonraki d¨onemdeki sermaye stokunu g¨osterir. Se¸cim (control/choice) de˘gi¸skenidir. g (k) = k0policy function (politika fonksiyonu) olarak adlandırılmaktadır.

Bu fonksiyon, cari d¨onemde k bilindi˘ginde bir sonraki d¨onem i¸cin optimal k0miktarını verir. Daha genel bir ifadeyle ”Recursive Formulation” ¸su ¸sekilde yazılabilir:

V (x ) = max

x 0 ∈XU(x , x 0

) + βV (x0)

Burada x :durum (state) de˘gi¸skeni; x0: kontrol (control) de˘gi¸skeni ve x0∈ X kontrol/se¸cim de˘gi¸skeni ¨uzerindeki kısıttır.

(35)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Bu problemin ”Bellman denklemini” ya da ”Recursive formunu” (zaman indislerinden arındırıp) ¸s¨oyle yazabiliriz:

V (k) = max

0≤k0 ≤f (k)

U(f (k) − k0) + βV (k0)

V (k), cari d¨onemde elinde k sermaye stoku bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi bug¨une indirgenmi¸s (optimal) faydayı temsil etmektedir.

V (k) denklemi Bellman Denklemi ya da De˘ger Fonksiyonu (Value Function) ya da Recursive Formulation olarak adlandırılmaktadır.

k cari d¨onemindeki sermaye stokunu g¨ostermekte olup durum (state) degi¸skenidir. Cari d¨onemdeki t¨um bilgileri durum de˘gi¸skeni yani k ¨ozetler.

k0ise bir sonraki d¨onemdeki sermaye stokunu g¨osterir. Se¸cim (control/choice) de˘gi¸skenidir. g (k) = k0policy function (politika fonksiyonu) olarak adlandırılmaktadır.

Bu fonksiyon, cari d¨onemde k bilindi˘ginde bir sonraki d¨onem i¸cin optimal k0miktarını verir. Daha genel bir ifadeyle ”Recursive Formulation” ¸su ¸sekilde yazılabilir:

V (x ) = max

x 0 ∈XU(x , x 0

) + βV (x0)

Burada x :durum (state) de˘gi¸skeni; x0: kontrol (control) de˘gi¸skeni ve x0∈ X kontrol/se¸cim de˘gi¸skeni ¨uzerindeki kısıttır.

(36)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Bu problemin ”Bellman denklemini” ya da ”Recursive formunu” (zaman indislerinden arındırıp) ¸s¨oyle yazabiliriz:

V (k) = max

0≤k0 ≤f (k)

U(f (k) − k0) + βV (k0)

V (k), cari d¨onemde elinde k sermaye stoku bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi bug¨une indirgenmi¸s (optimal) faydayı temsil etmektedir.

V (k) denklemi Bellman Denklemi ya da De˘ger Fonksiyonu (Value Function) ya da Recursive Formulation olarak adlandırılmaktadır.

k cari d¨onemindeki sermaye stokunu g¨ostermekte olup durum (state) degi¸skenidir. Cari d¨onemdeki t¨um bilgileri durum de˘gi¸skeni yani k ¨ozetler.

k0ise bir sonraki d¨onemdeki sermaye stokunu g¨osterir. Se¸cim (control/choice) de˘gi¸skenidir. g (k) = k0policy function (politika fonksiyonu) olarak adlandırılmaktadır.

Bu fonksiyon, cari d¨onemde k bilindi˘ginde bir sonraki d¨onem i¸cin optimal k0miktarını verir. Daha genel bir ifadeyle ”Recursive Formulation” ¸su ¸sekilde yazılabilir:

V (x ) = max

x 0 ∈XU(x , x 0

) + βV (x0)

Burada x :durum (state) de˘gi¸skeni; x0: kontrol (control) de˘gi¸skeni ve x0∈ X kontrol/se¸cim de˘gi¸skeni ¨uzerindeki kısıttır.

(37)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Bu problemin ”Bellman denklemini” ya da ”Recursive formunu” (zaman indislerinden arındırıp) ¸s¨oyle yazabiliriz:

V (k) = max

0≤k0 ≤f (k)

U(f (k) − k0) + βV (k0)

V (k), cari d¨onemde elinde k sermaye stoku bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi bug¨une indirgenmi¸s (optimal) faydayı temsil etmektedir.

V (k) denklemi Bellman Denklemi ya da De˘ger Fonksiyonu (Value Function) ya da Recursive Formulation olarak adlandırılmaktadır.

k cari d¨onemindeki sermaye stokunu g¨ostermekte olup durum (state) degi¸skenidir. Cari d¨onemdeki t¨um bilgileri durum de˘gi¸skeni yani k ¨ozetler.

k0ise bir sonraki d¨onemdeki sermaye stokunu g¨osterir. Se¸cim (control/choice) de˘gi¸skenidir.

g (k) = k0policy function (politika fonksiyonu) olarak adlandırılmaktadır.

Bu fonksiyon, cari d¨onemde k bilindi˘ginde bir sonraki d¨onem i¸cin optimal k0miktarını verir. Daha genel bir ifadeyle ”Recursive Formulation” ¸su ¸sekilde yazılabilir:

V (x ) = max

x 0 ∈XU(x , x 0

) + βV (x0)

Burada x :durum (state) de˘gi¸skeni; x0: kontrol (control) de˘gi¸skeni ve x0∈ X kontrol/se¸cim de˘gi¸skeni ¨uzerindeki kısıttır.

(38)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Bu problemin ”Bellman denklemini” ya da ”Recursive formunu” (zaman indislerinden arındırıp) ¸s¨oyle yazabiliriz:

V (k) = max

0≤k0 ≤f (k)

U(f (k) − k0) + βV (k0)

V (k), cari d¨onemde elinde k sermaye stoku bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi bug¨une indirgenmi¸s (optimal) faydayı temsil etmektedir.

V (k) denklemi Bellman Denklemi ya da De˘ger Fonksiyonu (Value Function) ya da Recursive Formulation olarak adlandırılmaktadır.

k cari d¨onemindeki sermaye stokunu g¨ostermekte olup durum (state) degi¸skenidir. Cari d¨onemdeki t¨um bilgileri durum de˘gi¸skeni yani k ¨ozetler.

k0ise bir sonraki d¨onemdeki sermaye stokunu g¨osterir. Se¸cim (control/choice) de˘gi¸skenidir. g (k) = k0policy function (politika fonksiyonu) olarak adlandırılmaktadır.

Bu fonksiyon, cari d¨onemde k bilindi˘ginde bir sonraki d¨onem i¸cin optimal k0miktarını verir. Daha genel bir ifadeyle ”Recursive Formulation” ¸su ¸sekilde yazılabilir:

V (x ) = max

x 0 ∈XU(x , x 0

) + βV (x0)

Burada x :durum (state) de˘gi¸skeni; x0: kontrol (control) de˘gi¸skeni ve x0∈ X kontrol/se¸cim de˘gi¸skeni ¨uzerindeki kısıttır.

(39)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Bu problemin ”Bellman denklemini” ya da ”Recursive formunu” (zaman indislerinden arındırıp) ¸s¨oyle yazabiliriz:

V (k) = max

0≤k0 ≤f (k)

U(f (k) − k0) + βV (k0)

V (k), cari d¨onemde elinde k sermaye stoku bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi bug¨une indirgenmi¸s (optimal) faydayı temsil etmektedir.

V (k) denklemi Bellman Denklemi ya da De˘ger Fonksiyonu (Value Function) ya da Recursive Formulation olarak adlandırılmaktadır.

k cari d¨onemindeki sermaye stokunu g¨ostermekte olup durum (state) degi¸skenidir. Cari d¨onemdeki t¨um bilgileri durum de˘gi¸skeni yani k ¨ozetler.

k0ise bir sonraki d¨onemdeki sermaye stokunu g¨osterir. Se¸cim (control/choice) de˘gi¸skenidir. g (k) = k0policy function (politika fonksiyonu) olarak adlandırılmaktadır.

Bu fonksiyon, cari d¨onemde k bilindi˘ginde bir sonraki d¨onem i¸cin optimal k0miktarını verir.

Daha genel bir ifadeyle ”Recursive Formulation” ¸su ¸sekilde yazılabilir: V (x ) = max

x 0 ∈XU(x , x 0

) + βV (x0)

Burada x :durum (state) de˘gi¸skeni; x0: kontrol (control) de˘gi¸skeni ve x0∈ X kontrol/se¸cim de˘gi¸skeni ¨uzerindeki kısıttır.

(40)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Bu problemin ”Bellman denklemini” ya da ”Recursive formunu” (zaman indislerinden arındırıp) ¸s¨oyle yazabiliriz:

V (k) = max

0≤k0 ≤f (k)

U(f (k) − k0) + βV (k0)

V (k), cari d¨onemde elinde k sermaye stoku bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi bug¨une indirgenmi¸s (optimal) faydayı temsil etmektedir.

V (k) denklemi Bellman Denklemi ya da De˘ger Fonksiyonu (Value Function) ya da Recursive Formulation olarak adlandırılmaktadır.

k cari d¨onemindeki sermaye stokunu g¨ostermekte olup durum (state) degi¸skenidir. Cari d¨onemdeki t¨um bilgileri durum de˘gi¸skeni yani k ¨ozetler.

k0ise bir sonraki d¨onemdeki sermaye stokunu g¨osterir. Se¸cim (control/choice) de˘gi¸skenidir. g (k) = k0policy function (politika fonksiyonu) olarak adlandırılmaktadır.

Bu fonksiyon, cari d¨onemde k bilindi˘ginde bir sonraki d¨onem i¸cin optimal k0miktarını verir. Daha genel bir ifadeyle ”Recursive Formulation” ¸su ¸sekilde yazılabilir:

V (x ) = max

x 0 ∈XU(x , x 0

) + βV (x0)

Burada x :durum (state) de˘gi¸skeni; x0: kontrol (control) de˘gi¸skeni ve x0∈ X kontrol/se¸cim de˘gi¸skeni ¨uzerindeki kısıttır.

(41)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Bu problemin ”Bellman denklemini” ya da ”Recursive formunu” (zaman indislerinden arındırıp) ¸s¨oyle yazabiliriz:

V (k) = max

0≤k0 ≤f (k)

U(f (k) − k0) + βV (k0)

V (k), cari d¨onemde elinde k sermaye stoku bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi bug¨une indirgenmi¸s (optimal) faydayı temsil etmektedir.

V (k) denklemi Bellman Denklemi ya da De˘ger Fonksiyonu (Value Function) ya da Recursive Formulation olarak adlandırılmaktadır.

k cari d¨onemindeki sermaye stokunu g¨ostermekte olup durum (state) degi¸skenidir. Cari d¨onemdeki t¨um bilgileri durum de˘gi¸skeni yani k ¨ozetler.

k0ise bir sonraki d¨onemdeki sermaye stokunu g¨osterir. Se¸cim (control/choice) de˘gi¸skenidir. g (k) = k0policy function (politika fonksiyonu) olarak adlandırılmaktadır.

Bu fonksiyon, cari d¨onemde k bilindi˘ginde bir sonraki d¨onem i¸cin optimal k0miktarını verir. Daha genel bir ifadeyle ”Recursive Formulation” ¸su ¸sekilde yazılabilir:

V (x ) = max

x 0 ∈XU(x , x 0

) + βV (x0)

Burada x :durum (state) de˘gi¸skeni; x0: kontrol (control) de˘gi¸skeni ve x0∈ X kontrol/se¸cim de˘gi¸skeni ¨uzerindeki kısıttır.

(42)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Bu problemin ”Bellman denklemini” ya da ”Recursive formunu” (zaman indislerinden arındırıp) ¸s¨oyle yazabiliriz:

V (k) = max

0≤k0 ≤f (k)

U(f (k) − k0) + βV (k0)

V (k), cari d¨onemde elinde k sermaye stoku bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi bug¨une indirgenmi¸s (optimal) faydayı temsil etmektedir.

V (k) denklemi Bellman Denklemi ya da De˘ger Fonksiyonu (Value Function) ya da Recursive Formulation olarak adlandırılmaktadır.

k cari d¨onemindeki sermaye stokunu g¨ostermekte olup durum (state) degi¸skenidir. Cari d¨onemdeki t¨um bilgileri durum de˘gi¸skeni yani k ¨ozetler.

k0ise bir sonraki d¨onemdeki sermaye stokunu g¨osterir. Se¸cim (control/choice) de˘gi¸skenidir. g (k) = k0policy function (politika fonksiyonu) olarak adlandırılmaktadır.

Bu fonksiyon, cari d¨onemde k bilindi˘ginde bir sonraki d¨onem i¸cin optimal k0miktarını verir. Daha genel bir ifadeyle ”Recursive Formulation” ¸su ¸sekilde yazılabilir:

V (x ) = max

x 0 ∈XU(x , x 0

) + βV (x0)

Burada x :durum (state) de˘gi¸skeni; x0: kontrol (control) de˘gi¸skeni ve x0∈ X kontrol/se¸cim de˘gi¸skeni ¨uzerindeki kısıttır.

(43)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Kısa ve Uzun D¨

onem Sonu¸clarının Bulunması i¸cin

Alternatif Y¨

ontemler

Kısa D¨onem Sonu¸clarını Elde Etmenin Alternatif Y¨ontemeleri (Hepsi Bellman Denklemi/Recursive Form ile ¸c¨oz¨ul¨ur):

1

Tahmin & Do˘grulama metodu (Guess and Verify Method) (C¸ ok kısıtlı durumlar i¸cin analitik ¸c¨oz¨um)

2

De˘ger fonksiyonu iterasyonu (Value Function Iteration) (n¨umerik ¸c¨oz¨um)

3

Politika fonksiyonu iterasyonu (Policy function iteration/Howard’s improvement algorithm) (n¨umerik ¸

c¨oz¨um)

Uzun D¨onem Sonu¸clarının Bulunması: Euler Denklemi ve Dura˘gan Durum Sonu¸clarını Elde Etmenin Alternatif Y¨ontemleri:

1

Lagrange Metodu (Sequential form ile ¸c¨oz¨ul¨ur)

2

Zarf Teoremi (Envelope Theorem ya da Benveniste-Scheinkman (BS) Y¨ontemi) (Recursive form ile ¸

(44)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Kısa ve Uzun D¨

onem Sonu¸clarının Bulunması i¸cin

Alternatif Y¨

ontemler

Kısa D¨onem Sonu¸clarını Elde Etmenin Alternatif Y¨ontemeleri (Hepsi Bellman Denklemi/Recursive Form ile ¸c¨oz¨ul¨ur):

1

Tahmin & Do˘grulama metodu (Guess and Verify Method) (C¸ ok kısıtlı durumlar i¸cin analitik ¸c¨oz¨um)

2

De˘ger fonksiyonu iterasyonu (Value Function Iteration) (n¨umerik ¸c¨oz¨um)

3

Politika fonksiyonu iterasyonu (Policy function iteration/Howard’s improvement algorithm) (n¨umerik ¸

c¨oz¨um)

Uzun D¨onem Sonu¸clarının Bulunması: Euler Denklemi ve Dura˘gan Durum Sonu¸clarını Elde Etmenin Alternatif Y¨ontemleri:

1

Lagrange Metodu (Sequential form ile ¸c¨oz¨ul¨ur)

2

Zarf Teoremi (Envelope Theorem ya da Benveniste-Scheinkman (BS) Y¨ontemi) (Recursive form ile ¸

(45)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Kısa ve Uzun D¨

onem Sonu¸clarının Bulunması i¸cin

Alternatif Y¨

ontemler

Kısa D¨onem Sonu¸clarını Elde Etmenin Alternatif Y¨ontemeleri (Hepsi Bellman Denklemi/Recursive Form ile ¸c¨oz¨ul¨ur):

1

Tahmin & Do˘grulama metodu (Guess and Verify Method) (C¸ ok kısıtlı durumlar i¸cin analitik ¸c¨oz¨um)

2

De˘ger fonksiyonu iterasyonu (Value Function Iteration) (n¨umerik ¸c¨oz¨um)

3

Politika fonksiyonu iterasyonu (Policy function iteration/Howard’s improvement algorithm) (n¨umerik ¸

c¨oz¨um)

Uzun D¨onem Sonu¸clarının Bulunması: Euler Denklemi ve Dura˘gan Durum Sonu¸clarını Elde Etmenin Alternatif Y¨ontemleri:

1

Lagrange Metodu (Sequential form ile ¸c¨oz¨ul¨ur)

2

Zarf Teoremi (Envelope Theorem ya da Benveniste-Scheinkman (BS) Y¨ontemi) (Recursive form ile ¸

(46)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Kısa ve Uzun D¨

onem Sonu¸clarının Bulunması i¸cin

Alternatif Y¨

ontemler

Kısa D¨onem Sonu¸clarını Elde Etmenin Alternatif Y¨ontemeleri (Hepsi Bellman Denklemi/Recursive Form ile ¸c¨oz¨ul¨ur):

1

Tahmin & Do˘grulama metodu (Guess and Verify Method) (C¸ ok kısıtlı durumlar i¸cin analitik ¸c¨oz¨um)

2

De˘ger fonksiyonu iterasyonu (Value Function Iteration) (n¨umerik ¸c¨oz¨um)

3

Politika fonksiyonu iterasyonu (Policy function iteration/Howard’s improvement algorithm) (n¨umerik ¸

c¨oz¨um)

Uzun D¨onem Sonu¸clarının Bulunması: Euler Denklemi ve Dura˘gan Durum Sonu¸clarını Elde Etmenin Alternatif Y¨ontemleri:

1

Lagrange Metodu (Sequential form ile ¸c¨oz¨ul¨ur)

2

Zarf Teoremi (Envelope Theorem ya da Benveniste-Scheinkman (BS) Y¨ontemi) (Recursive form ile ¸

(47)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Kısa ve Uzun D¨

onem Sonu¸clarının Bulunması i¸cin

Alternatif Y¨

ontemler

Kısa D¨onem Sonu¸clarını Elde Etmenin Alternatif Y¨ontemeleri (Hepsi Bellman Denklemi/Recursive Form ile ¸c¨oz¨ul¨ur):

1

Tahmin & Do˘grulama metodu (Guess and Verify Method) (C¸ ok kısıtlı durumlar i¸cin analitik ¸c¨oz¨um)

2

De˘ger fonksiyonu iterasyonu (Value Function Iteration) (n¨umerik ¸c¨oz¨um)

3

Politika fonksiyonu iterasyonu (Policy function iteration/Howard’s improvement algorithm) (n¨umerik ¸

c¨oz¨um)

Uzun D¨onem Sonu¸clarının Bulunması: Euler Denklemi ve Dura˘gan Durum Sonu¸clarını Elde Etmenin Alternatif Y¨ontemleri:

1

Lagrange Metodu (Sequential form ile ¸c¨oz¨ul¨ur)

2

Zarf Teoremi (Envelope Theorem ya da Benveniste-Scheinkman (BS) Y¨ontemi) (Recursive form ile ¸

(48)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Kısa ve Uzun D¨

onem Sonu¸clarının Bulunması i¸cin

Alternatif Y¨

ontemler

Kısa D¨onem Sonu¸clarını Elde Etmenin Alternatif Y¨ontemeleri (Hepsi Bellman Denklemi/Recursive Form ile ¸c¨oz¨ul¨ur):

1

Tahmin & Do˘grulama metodu (Guess and Verify Method) (C¸ ok kısıtlı durumlar i¸cin analitik ¸c¨oz¨um)

2

De˘ger fonksiyonu iterasyonu (Value Function Iteration) (n¨umerik ¸c¨oz¨um)

3

Politika fonksiyonu iterasyonu (Policy function iteration/Howard’s improvement algorithm) (n¨umerik ¸

c¨oz¨um)

Uzun D¨onem Sonu¸clarının Bulunması: Euler Denklemi ve Dura˘gan Durum Sonu¸clarını Elde Etmenin Alternatif Y¨ontemleri:

1

Lagrange Metodu (Sequential form ile ¸c¨oz¨ul¨ur)

2

Zarf Teoremi (Envelope Theorem ya da Benveniste-Scheinkman (BS) Y¨ontemi) (Recursive form ile ¸

(49)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Kısa ve Uzun D¨

onem Sonu¸clarının Bulunması i¸cin

Alternatif Y¨

ontemler

Kısa D¨onem Sonu¸clarını Elde Etmenin Alternatif Y¨ontemeleri (Hepsi Bellman Denklemi/Recursive Form ile ¸c¨oz¨ul¨ur):

1

Tahmin & Do˘grulama metodu (Guess and Verify Method) (C¸ ok kısıtlı durumlar i¸cin analitik ¸c¨oz¨um)

2

De˘ger fonksiyonu iterasyonu (Value Function Iteration) (n¨umerik ¸c¨oz¨um)

3

Politika fonksiyonu iterasyonu (Policy function iteration/Howard’s improvement algorithm) (n¨umerik ¸

c¨oz¨um)

Uzun D¨onem Sonu¸clarının Bulunması: Euler Denklemi ve Dura˘gan Durum Sonu¸clarını Elde Etmenin Alternatif Y¨ontemleri:

1

Lagrange Metodu (Sequential form ile ¸c¨oz¨ul¨ur)

2

Zarf Teoremi (Envelope Theorem ya da Benveniste-Scheinkman (BS) Y¨ontemi) (Recursive form ile ¸

(50)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Zarf Teoreminin Uygulanması:

V (kt) = max

0≤kt+1≤f (kt )[U(g (kt, kt+1)) + βV (kt+1)]

V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

FOC w.r.t. kt+1(zincir kuralı ile):

∂V (kt) ∂kt+1 = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt+1 + βV0(kt+1) = 0 (∗1)

S¸imdi de V (kt) de˘gi¸skeninin ktile nasıl de˘gi¸sti˘gine bakalım:

dV (kt) dkt =∂V (kt) ∂kt +∂V (kt) ∂kt+1 ∂kt+1 ∂kt ∂V (kt )

∂kt+1 = 0 olur ¸c¨unk¨u zaten V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

dV (kt) dkt = V0(kt) = ∂V (kt) ∂kt = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt

Yukarıdaki denklemi 1 d¨onem ilerisi i¸cin yazarsak:

V0(kt+1) = U0(g (kt+1, kt+2))∂g (kt+1, kt+2) ∂kt+1

(∗2)

(*1) ve (*2) denklemi birlikte ¸c¨oz¨ulerek ¨once ”Euler denklemi” ve sonra ”Dura˘gan Durum sonu¸cları” elde edilir.

Zarf teoreminin Neo-Klasik B¨uy¨ume Modeline uyarlanması da bu adımlar izlenerek basit bir ¸sekilde yapılabilir.

(51)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Zarf Teoreminin Uygulanması:

V (kt) = max

0≤kt+1≤f (kt )[U(g (kt, kt+1)) + βV (kt+1)]

V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

FOC w.r.t. kt+1(zincir kuralı ile):

∂V (kt) ∂kt+1 = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt+1 + βV0(kt+1) = 0 (∗1)

S¸imdi de V (kt) de˘gi¸skeninin ktile nasıl de˘gi¸sti˘gine bakalım:

dV (kt) dkt =∂V (kt) ∂kt +∂V (kt) ∂kt+1 ∂kt+1 ∂kt ∂V (kt )

∂kt+1 = 0 olur ¸c¨unk¨u zaten V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

dV (kt) dkt = V0(kt) = ∂V (kt) ∂kt = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt

Yukarıdaki denklemi 1 d¨onem ilerisi i¸cin yazarsak:

V0(kt+1) = U0(g (kt+1, kt+2))∂g (kt+1, kt+2) ∂kt+1

(∗2)

(*1) ve (*2) denklemi birlikte ¸c¨oz¨ulerek ¨once ”Euler denklemi” ve sonra ”Dura˘gan Durum sonu¸cları” elde edilir.

Zarf teoreminin Neo-Klasik B¨uy¨ume Modeline uyarlanması da bu adımlar izlenerek basit bir ¸sekilde yapılabilir.

(52)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Zarf Teoreminin Uygulanması:

V (kt) = max

0≤kt+1≤f (kt )[U(g (kt, kt+1)) + βV (kt+1)]

V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

FOC w.r.t. kt+1(zincir kuralı ile):

∂V (kt) ∂kt+1 = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt+1 + βV0(kt+1) = 0 (∗1)

S¸imdi de V (kt) de˘gi¸skeninin ktile nasıl de˘gi¸sti˘gine bakalım:

dV (kt) dkt =∂V (kt) ∂kt +∂V (kt) ∂kt+1 ∂kt+1 ∂kt ∂V (kt )

∂kt+1 = 0 olur ¸c¨unk¨u zaten V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

dV (kt) dkt = V0(kt) = ∂V (kt) ∂kt = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt

Yukarıdaki denklemi 1 d¨onem ilerisi i¸cin yazarsak:

V0(kt+1) = U0(g (kt+1, kt+2))∂g (kt+1, kt+2) ∂kt+1

(∗2)

(*1) ve (*2) denklemi birlikte ¸c¨oz¨ulerek ¨once ”Euler denklemi” ve sonra ”Dura˘gan Durum sonu¸cları” elde edilir.

Zarf teoreminin Neo-Klasik B¨uy¨ume Modeline uyarlanması da bu adımlar izlenerek basit bir ¸sekilde yapılabilir.

(53)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Zarf Teoreminin Uygulanması:

V (kt) = max

0≤kt+1≤f (kt )[U(g (kt, kt+1)) + βV (kt+1)]

V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

FOC w.r.t. kt+1(zincir kuralı ile):

∂V (kt) ∂kt+1 = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt+1 + βV0(kt+1) = 0 (∗1)

S¸imdi de V (kt) de˘gi¸skeninin ktile nasıl de˘gi¸sti˘gine bakalım:

dV (kt) dkt =∂V (kt) ∂kt +∂V (kt) ∂kt+1 ∂kt+1 ∂kt ∂V (kt )

∂kt+1 = 0 olur ¸c¨unk¨u zaten V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

dV (kt) dkt = V0(kt) = ∂V (kt) ∂kt = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt

Yukarıdaki denklemi 1 d¨onem ilerisi i¸cin yazarsak:

V0(kt+1) = U0(g (kt+1, kt+2))∂g (kt+1, kt+2) ∂kt+1

(∗2)

(*1) ve (*2) denklemi birlikte ¸c¨oz¨ulerek ¨once ”Euler denklemi” ve sonra ”Dura˘gan Durum sonu¸cları” elde edilir.

Zarf teoreminin Neo-Klasik B¨uy¨ume Modeline uyarlanması da bu adımlar izlenerek basit bir ¸sekilde yapılabilir.

(54)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Zarf Teoreminin Uygulanması:

V (kt) = max

0≤kt+1≤f (kt )[U(g (kt, kt+1)) + βV (kt+1)]

V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

FOC w.r.t. kt+1(zincir kuralı ile):

∂V (kt) ∂kt+1 = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt+1 + βV0(kt+1) = 0 (∗1)

S¸imdi de V (kt) de˘gi¸skeninin ktile nasıl de˘gi¸sti˘gine bakalım:

dV (kt) dkt =∂V (kt) ∂kt +∂V (kt) ∂kt+1 ∂kt+1 ∂kt ∂V (kt )

∂kt+1 = 0 olur ¸c¨unk¨u zaten V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

dV (kt) dkt = V0(kt) = ∂V (kt) ∂kt = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt

Yukarıdaki denklemi 1 d¨onem ilerisi i¸cin yazarsak:

V0(kt+1) = U0(g (kt+1, kt+2))∂g (kt+1, kt+2) ∂kt+1

(∗2)

(*1) ve (*2) denklemi birlikte ¸c¨oz¨ulerek ¨once ”Euler denklemi” ve sonra ”Dura˘gan Durum sonu¸cları” elde edilir.

Zarf teoreminin Neo-Klasik B¨uy¨ume Modeline uyarlanması da bu adımlar izlenerek basit bir ¸sekilde yapılabilir.

(55)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Zarf Teoreminin Uygulanması:

V (kt) = max

0≤kt+1≤f (kt )[U(g (kt, kt+1)) + βV (kt+1)]

V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

FOC w.r.t. kt+1(zincir kuralı ile):

∂V (kt) ∂kt+1 = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt+1 + βV0(kt+1) = 0 (∗1)

S¸imdi de V (kt) de˘gi¸skeninin ktile nasıl de˘gi¸sti˘gine bakalım:

dV (kt) dkt =∂V (kt) ∂kt +∂V (kt) ∂kt+1 ∂kt+1 ∂kt ∂V (kt )

∂kt+1 = 0 olur ¸c¨unk¨u zaten V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

dV (kt) dkt = V0(kt) = ∂V (kt) ∂kt = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt

Yukarıdaki denklemi 1 d¨onem ilerisi i¸cin yazarsak:

V0(kt+1) = U0(g (kt+1, kt+2))∂g (kt+1, kt+2) ∂kt+1

(∗2)

(*1) ve (*2) denklemi birlikte ¸c¨oz¨ulerek ¨once ”Euler denklemi” ve sonra ”Dura˘gan Durum sonu¸cları” elde edilir.

Zarf teoreminin Neo-Klasik B¨uy¨ume Modeline uyarlanması da bu adımlar izlenerek basit bir ¸sekilde yapılabilir.

(56)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Zarf Teoreminin Uygulanması:

V (kt) = max

0≤kt+1≤f (kt )[U(g (kt, kt+1)) + βV (kt+1)]

V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

FOC w.r.t. kt+1(zincir kuralı ile):

∂V (kt) ∂kt+1 = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt+1 + βV0(kt+1) = 0 (∗1)

S¸imdi de V (kt) de˘gi¸skeninin ktile nasıl de˘gi¸sti˘gine bakalım:

dV (kt) dkt =∂V (kt) ∂kt +∂V (kt) ∂kt+1 ∂kt+1 ∂kt ∂V (kt )

∂kt+1 = 0 olur ¸c¨unk¨u zaten V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

dV (kt) dkt = V0(kt) = ∂V (kt) ∂kt = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt

Yukarıdaki denklemi 1 d¨onem ilerisi i¸cin yazarsak:

V0(kt+1) = U0(g (kt+1, kt+2))∂g (kt+1, kt+2) ∂kt+1

(∗2)

(*1) ve (*2) denklemi birlikte ¸c¨oz¨ulerek ¨once ”Euler denklemi” ve sonra ”Dura˘gan Durum sonu¸cları” elde edilir.

Zarf teoreminin Neo-Klasik B¨uy¨ume Modeline uyarlanması da bu adımlar izlenerek basit bir ¸sekilde yapılabilir.

(57)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Zarf Teoreminin Uygulanması:

V (kt) = max

0≤kt+1≤f (kt )[U(g (kt, kt+1)) + βV (kt+1)]

V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

FOC w.r.t. kt+1(zincir kuralı ile):

∂V (kt) ∂kt+1 = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt+1 + βV0(kt+1) = 0 (∗1)

S¸imdi de V (kt) de˘gi¸skeninin ktile nasıl de˘gi¸sti˘gine bakalım:

dV (kt) dkt =∂V (kt) ∂kt +∂V (kt) ∂kt+1 ∂kt+1 ∂kt ∂V (kt )

∂kt+1 = 0 olur ¸c¨unk¨u zaten V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

dV (kt) dkt = V0(kt) = ∂V (kt) ∂kt = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt

Yukarıdaki denklemi 1 d¨onem ilerisi i¸cin yazarsak:

V0(kt+1) = U0(g (kt+1, kt+2))∂g (kt+1, kt+2) ∂kt+1

(∗2)

(*1) ve (*2) denklemi birlikte ¸c¨oz¨ulerek ¨once ”Euler denklemi” ve sonra ”Dura˘gan Durum sonu¸cları” elde edilir.

Zarf teoreminin Neo-Klasik B¨uy¨ume Modeline uyarlanması da bu adımlar izlenerek basit bir ¸sekilde yapılabilir.

(58)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Zarf Teoreminin Uygulanması:

V (kt) = max

0≤kt+1≤f (kt )[U(g (kt, kt+1)) + βV (kt+1)]

V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

FOC w.r.t. kt+1(zincir kuralı ile):

∂V (kt) ∂kt+1 = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt+1 + βV0(kt+1) = 0 (∗1)

S¸imdi de V (kt) de˘gi¸skeninin ktile nasıl de˘gi¸sti˘gine bakalım:

dV (kt) dkt =∂V (kt) ∂kt +∂V (kt) ∂kt+1 ∂kt+1 ∂kt ∂V (kt )

∂kt+1 = 0 olur ¸c¨unk¨u zaten V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

dV (kt) dkt = V0(kt) = ∂V (kt) ∂kt = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt

Yukarıdaki denklemi 1 d¨onem ilerisi i¸cin yazarsak:

V0(kt+1) = U0(g (kt+1, kt+2))∂g (kt+1, kt+2) ∂kt+1

(∗2)

(*1) ve (*2) denklemi birlikte ¸c¨oz¨ulerek ¨once ”Euler denklemi” ve sonra ”Dura˘gan Durum sonu¸cları” elde edilir.

Zarf teoreminin Neo-Klasik B¨uy¨ume Modeline uyarlanması da bu adımlar izlenerek basit bir ¸sekilde yapılabilir.

(59)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Zarf Teoreminin Uygulanması:

V (kt) = max

0≤kt+1≤f (kt )[U(g (kt, kt+1)) + βV (kt+1)]

V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

FOC w.r.t. kt+1(zincir kuralı ile):

∂V (kt) ∂kt+1 = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt+1 + βV0(kt+1) = 0 (∗1)

S¸imdi de V (kt) de˘gi¸skeninin ktile nasıl de˘gi¸sti˘gine bakalım:

dV (kt) dkt =∂V (kt) ∂kt +∂V (kt) ∂kt+1 ∂kt+1 ∂kt ∂V (kt )

∂kt+1 = 0 olur ¸c¨unk¨u zaten V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

dV (kt) dkt = V0(kt) = ∂V (kt) ∂kt = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt

Yukarıdaki denklemi 1 d¨onem ilerisi i¸cin yazarsak:

V0(kt+1) = U0(g (kt+1, kt+2))∂g (kt+1, kt+2) ∂kt+1

(∗2)

(*1) ve (*2) denklemi birlikte ¸c¨oz¨ulerek ¨once ”Euler denklemi” ve sonra ”Dura˘gan Durum sonu¸cları” elde edilir.

Zarf teoreminin Neo-Klasik B¨uy¨ume Modeline uyarlanması da bu adımlar izlenerek basit bir ¸sekilde yapılabilir.

(60)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Zarf Teoreminin Uygulanması:

V (kt) = max

0≤kt+1≤f (kt )[U(g (kt, kt+1)) + βV (kt+1)]

V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

FOC w.r.t. kt+1(zincir kuralı ile):

∂V (kt) ∂kt+1 = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt+1 + βV0(kt+1) = 0 (∗1)

S¸imdi de V (kt) de˘gi¸skeninin ktile nasıl de˘gi¸sti˘gine bakalım:

dV (kt) dkt =∂V (kt) ∂kt +∂V (kt) ∂kt+1 ∂kt+1 ∂kt ∂V (kt )

∂kt+1 = 0 olur ¸c¨unk¨u zaten V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

dV (kt) dkt = V0(kt) = ∂V (kt) ∂kt = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt

Yukarıdaki denklemi 1 d¨onem ilerisi i¸cin yazarsak:

V0(kt+1) = U0(g (kt+1, kt+2))∂g (kt+1, kt+2) ∂kt+1

(∗2)

(*1) ve (*2) denklemi birlikte ¸c¨oz¨ulerek ¨once ”Euler denklemi” ve sonra ”Dura˘gan Durum sonu¸cları” elde edilir.

Zarf teoreminin Neo-Klasik B¨uy¨ume Modeline uyarlanması da bu adımlar izlenerek basit bir ¸sekilde yapılabilir.

(61)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Zarf Teoreminin Uygulanması:

V (kt) = max

0≤kt+1≤f (kt )[U(g (kt, kt+1)) + βV (kt+1)]

V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

FOC w.r.t. kt+1(zincir kuralı ile):

∂V (kt) ∂kt+1 = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt+1 + βV0(kt+1) = 0 (∗1)

S¸imdi de V (kt) de˘gi¸skeninin ktile nasıl de˘gi¸sti˘gine bakalım:

dV (kt) dkt =∂V (kt) ∂kt +∂V (kt) ∂kt+1 ∂kt+1 ∂kt ∂V (kt )

∂kt+1 = 0 olur ¸c¨unk¨u zaten V (kt) de˘geri kt+1’e g¨ore maksimize edilmi¸s de˘gerdir.

dV (kt) dkt = V0(kt) = ∂V (kt) ∂kt = U0(g (kt, kt+1)) ∂g (kt, kt+1) ∂kt

Yukarıdaki denklemi 1 d¨onem ilerisi i¸cin yazarsak:

V0(kt+1) = U0(g (kt+1, kt+2))∂g (kt+1, kt+2) ∂kt+1

(∗2)

(*1) ve (*2) denklemi birlikte ¸c¨oz¨ulerek ¨once ”Euler denklemi” ve sonra ”Dura˘gan Durum sonu¸cları” elde edilir.

Zarf teoreminin Neo-Klasik B¨uy¨ume Modeline uyarlanması da bu adımlar izlenerek basit bir ¸sekilde yapılabilir.

(62)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Tahmin ve Do˘grulama Y¨ontemi:

max ct ,kt+1 ∞ X t=0 βtlog (ct) s.t. kt+1+ ct= Aktα k0> 0 veri ya da max kt+1 ∞ X t=0 βtlog (Aktα− kt+1) k0> 0 veri

gibi ”sequential” formda tanımlanmı¸s bir Neo-Klasik b¨uy¨ume modelini Tahmin ve Do˘grulama y¨ontemi ile ¸c¨ozmek i¸cin modeli ilk ¨once ”recursive” formda yazalım.

Bir ba¸ska deyi¸sle ”Bellman” denklemini yazalım: V (k) = max 0≤k0 ≤Akα log(Akα− k0 | {z } bugunku fayda ) + β V (k0) | {z } gelecekteki fayda

Burada V (k) cari d¨onemde elinde k miktarında sermaye bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi optimal faydanın bug¨une indirgenmi¸s halini g¨ostermektedir.

(63)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Tahmin ve Do˘grulama Y¨ontemi:

max ct ,kt+1 ∞ X t=0 βtlog (ct) s.t. kt+1+ ct= Aktα k0> 0 veri ya da max kt+1 ∞ X t=0 βtlog (Aktα− kt+1) k0> 0 veri

gibi ”sequential” formda tanımlanmı¸s bir Neo-Klasik b¨uy¨ume modelini Tahmin ve Do˘grulama y¨ontemi ile ¸c¨ozmek i¸cin modeli ilk ¨once ”recursive” formda yazalım.

Bir ba¸ska deyi¸sle ”Bellman” denklemini yazalım: V (k) = max 0≤k0 ≤Akα log(Akα− k0 | {z } bugunku fayda ) + β V (k0) | {z } gelecekteki fayda

Burada V (k) cari d¨onemde elinde k miktarında sermaye bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi optimal faydanın bug¨une indirgenmi¸s halini g¨ostermektedir.

(64)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Tahmin ve Do˘grulama Y¨ontemi:

max ct ,kt+1 ∞ X t=0 βtlog (ct) s.t. kt+1+ ct= Aktα k0> 0 veri ya da max kt+1 ∞ X t=0 βtlog (Aktα− kt+1) k0> 0 veri

gibi ”sequential” formda tanımlanmı¸s bir Neo-Klasik b¨uy¨ume modelini Tahmin ve Do˘grulama y¨ontemi ile ¸c¨ozmek i¸cin modeli ilk ¨once ”recursive” formda yazalım.

Bir ba¸ska deyi¸sle ”Bellman” denklemini yazalım: V (k) = max 0≤k0 ≤Akα log(Akα− k0 | {z } bugunku fayda ) + β V (k0) | {z } gelecekteki fayda

Burada V (k) cari d¨onemde elinde k miktarında sermaye bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi optimal faydanın bug¨une indirgenmi¸s halini g¨ostermektedir.

(65)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Tahmin ve Do˘grulama Y¨ontemi:

max ct ,kt+1 ∞ X t=0 βtlog (ct) s.t. kt+1+ ct= Aktα k0> 0 veri ya da max kt+1 ∞ X t=0 βtlog (Aktα− kt+1) k0> 0 veri

gibi ”sequential” formda tanımlanmı¸s bir Neo-Klasik b¨uy¨ume modelini Tahmin ve Do˘grulama y¨ontemi ile ¸c¨ozmek i¸cin modeli ilk ¨once ”recursive” formda yazalım.

Bir ba¸ska deyi¸sle ”Bellman” denklemini yazalım: V (k) = max 0≤k0 ≤Akα log(Akα− k0 | {z } bugunku fayda ) + β V (k0) | {z } gelecekteki fayda

Burada V (k) cari d¨onemde elinde k miktarında sermaye bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi optimal faydanın bug¨une indirgenmi¸s halini g¨ostermektedir.

(66)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Tahmin ve Do˘grulama Y¨ontemi:

max ct ,kt+1 ∞ X t=0 βtlog (ct) s.t. kt+1+ ct= Aktα k0> 0 veri ya da max kt+1 ∞ X t=0 βtlog (Aktα− kt+1) k0> 0 veri

gibi ”sequential” formda tanımlanmı¸s bir Neo-Klasik b¨uy¨ume modelini Tahmin ve Do˘grulama y¨ontemi ile ¸c¨ozmek i¸cin modeli ilk ¨once ”recursive” formda yazalım.

Bir ba¸ska deyi¸sle ”Bellman” denklemini yazalım: V (k) = max 0≤k0 ≤Akα log(Akα− k0 | {z } bugunku fayda ) + β V (k0) | {z } gelecekteki fayda

Burada V (k) cari d¨onemde elinde k miktarında sermaye bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi optimal faydanın bug¨une indirgenmi¸s halini g¨ostermektedir.

(67)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Tahmin ve Do˘grulama Y¨ontemi:

max ct ,kt+1 ∞ X t=0 βtlog (ct) s.t. kt+1+ ct= Aktα k0> 0 veri ya da max kt+1 ∞ X t=0 βtlog (Aktα− kt+1) k0> 0 veri

gibi ”sequential” formda tanımlanmı¸s bir Neo-Klasik b¨uy¨ume modelini Tahmin ve Do˘grulama y¨ontemi ile ¸c¨ozmek i¸cin modeli ilk ¨once ”recursive” formda yazalım.

Bir ba¸ska deyi¸sle ”Bellman” denklemini yazalım: V (k) = max 0≤k0 ≤Akα log(Akα− k0 | {z } bugunku fayda ) + β V (k0) | {z } gelecekteki fayda

Burada V (k) cari d¨onemde elinde k miktarında sermaye bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi optimal faydanın bug¨une indirgenmi¸s halini g¨ostermektedir.

(68)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Tahmin ve Do˘grulama Y¨ontemi:

max ct ,kt+1 ∞ X t=0 βtlog (ct) s.t. kt+1+ ct= Aktα k0> 0 veri ya da max kt+1 ∞ X t=0 βtlog (Aktα− kt+1) k0> 0 veri

gibi ”sequential” formda tanımlanmı¸s bir Neo-Klasik b¨uy¨ume modelini Tahmin ve Do˘grulama y¨ontemi ile ¸c¨ozmek i¸cin modeli ilk ¨once ”recursive” formda yazalım.

Bir ba¸ska deyi¸sle ”Bellman” denklemini yazalım:

V (k) = max 0≤k0 ≤Akα log(Akα− k0 | {z } bugunku fayda ) + β V (k0) | {z } gelecekteki fayda

Burada V (k) cari d¨onemde elinde k miktarında sermaye bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi optimal faydanın bug¨une indirgenmi¸s halini g¨ostermektedir.

(69)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Tahmin ve Do˘grulama Y¨ontemi:

max ct ,kt+1 ∞ X t=0 βtlog (ct) s.t. kt+1+ ct= Aktα k0> 0 veri ya da max kt+1 ∞ X t=0 βtlog (Aktα− kt+1) k0> 0 veri

gibi ”sequential” formda tanımlanmı¸s bir Neo-Klasik b¨uy¨ume modelini Tahmin ve Do˘grulama y¨ontemi ile ¸c¨ozmek i¸cin modeli ilk ¨once ”recursive” formda yazalım.

Bir ba¸ska deyi¸sle ”Bellman” denklemini yazalım: V (k) = max 0≤k0 ≤Akα log(Akα− k0 | {z } bugunku fayda ) + β V (k0) | {z } gelecekteki fayda

Burada V (k) cari d¨onemde elinde k miktarında sermaye bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi optimal faydanın bug¨une indirgenmi¸s halini g¨ostermektedir.

(70)

Bellman Denklemlerine Giri¸s Dinamik Programlama

Dinamik Programlama

Tahmin ve Do˘grulama Y¨ontemi:

max ct ,kt+1 ∞ X t=0 βtlog (ct) s.t. kt+1+ ct= Aktα k0> 0 veri ya da max kt+1 ∞ X t=0 βtlog (Aktα− kt+1) k0> 0 veri

gibi ”sequential” formda tanımlanmı¸s bir Neo-Klasik b¨uy¨ume modelini Tahmin ve Do˘grulama y¨ontemi ile ¸c¨ozmek i¸cin modeli ilk ¨once ”recursive” formda yazalım.

Bir ba¸ska deyi¸sle ”Bellman” denklemini yazalım: V (k) = max 0≤k0 ≤Akα log(Akα− k0 | {z } bugunku fayda ) + β V (k0) | {z } gelecekteki fayda

Burada V (k) cari d¨onemde elinde k miktarında sermaye bulunduran bir ki¸sinin ¨om¨ur boyunca elde edece˘gi optimal faydanın bug¨une indirgenmi¸s halini g¨ostermektedir.

Referanslar

Benzer Belgeler

Verilen açıklamada Kate adlı kişinin kahvaltı için bir kafede olduğu ve besleyici / sağlıklı yiyeceklerle soğuk içecek sevdiği vurgulanmıştır.. Buna göre Menu

Ailenin günlük rutinleri uyku düzenini etkilemez.. Anadolu Üniversitesi Açıköğretim Sistemi 2017-2018 Bahar Dönemi Dönem Sonu Sınavı. Aşağıdakilerden hangisi zihin

netiminde. Kozan'dan Adana'ya kadar Çukurova bölgesi. Şimdiki Kozan ilçesinden Uzun Yayla'ya kadar olan bölge. Derviş ve Cevdet Paşalar ilkin Ahmet Ağa ile

Aynı cins sıvılarda madde miktarı fazla olan sıvının kaynama sıcaklığına ulaşması için geçen süre ,madde miktarı az olan sıvının kaynama sıcaklığına ulaşması

Anadolu Üniversitesi Açıköğretim Sistemi 2016 - 2017 Güz Dönemi Dönem Sonu SınavıA. ULUSLARARASI

Dede Korkut’un Günbed Yazmasında Geçen 50 Moğolca Kelime (s. 55-82) başlıklı yazıda, yazmada geçen kırk sekiz kelime ele alınmaktadır. Bu kelimeler arasında.. kurban,

1. Soru kökünde maçı kimin izleyeceği sorulmaktadır. ‘Yüzme kursum var ama kursumdan sonra katılabilirim.’ diyen Zach maçı izleyecektir. GailJim’in davetini bir sebep

Deneyde mavi arabanın ağırlığı sarı arabanın ağırlığına, kırmızı arabanın ağırlığı da yeşil arabanın ağırlığına eşit olduğu verilmiş. Aynı yükseklikten bırakılan