• Sonuç bulunamadı

3.1 Hohenberg-Kohn Teoremleri

3.4.2 Optimizasyon Algoritmalar

Wekil 3.2’den de görülece i üzere optimizasyon ölçütleri sa lanmad sürece devam edecek olan optimizasyon döngüsünde dikkati çeken bir di er husus ise, sonraki döngüde dikkate al nacak geometrinin nas l belirlenece i sorusuna verilecek yan ttan geçmektedir. Bu belirleme i lemi kullan lan optimizasyon algoritmas taraf ndan yürütülür. Kuantum mekaniksel çok parçac kl dizgelerin geometrilerini optimize etmek üzere geli tirilen pek çok farkl algoritma, yukar da aç klanan Newton-Raphson (NR) algoritmas n n modifiye edilerek geli tirilmesi esas na dayan r. NR yönteminin k. ad m nda PEY üzerinde kullan lan do rultu arama (line search) vektörü s, (3.32) e itli inden de görülece i üzere sk = (Hk) 1Gk ile tan ml d r. Optimizasyon algoritmalar aras ndaki farkl l klar, do rultu arama vektörleri üzerinden yürütülecek bir tart ma yard m yla ortaya konabilir.

Optimizasyon algoritmalar nda geometri güncelleme i leminin nas l yap ld n tarihsel geli im süreci de dikkate alarak k saca aç klamak yerinde olacakt r. Bilinen en basit azalma do rultusu arama algoritmas Basamakl Dni (Steepest Descent) algoritmas d r. Yaln zca birinci mertebeden türevlerle ilgilenen Basamakl Dni algoritmas nda, azalma do rultusu aran rken göz önüne al nan vektör s = G ile

tan ml d r. Ba ka deyi le, bu algoritma uyar nca yürütülen optimizasyon süreçlerinde gradiyentin artmaya ba lad do rultunun ters yönünde hareket edilerek bir minimuma ula lmaya çal l r. Geçmi etkilerini içermeyen bu algoritman n PEY üzerinde geçti i bir noktan n yak nlar ndan tekrar geçerek aramay devam ettirmesi kuvvetle muhtemeldir. Do rultu arama s ras ndaki karar verme mekanizmas basite

indirgenerek h zland r lm olmas na (yaln zca gradiyenti hesaplar ba ka deyi le birinci mertebeden türevlerle ilgilenir) kar n, yak nsama süreci tümüyle göz önüne al nd nda etkinli i çok geli kin olmayan bu yöntemin bir minimuma yak nsamas oldukça uzun sürer. Üstelik bulunan minimum noktas n n dura an olup olmad sorusunu da ikinci mertebeden türevleri dikkate almad ndan yan ts z b rak r.

NR yöntemine benzer optimizasyon algoritmalar n n kuantum mekaniksel moleküler fizik alan nda kullan lan optimizasyon algoritmalar ndaki eksiklikleri giderme amac na hizmet eden en kullan l formülasyon olarak kabul edilir. Çok de i kenli fonksiyon optimizasyonu için NR-benzeri yöntemlerin geli tirilmeye aç k olmas iki temel nedene dayand r larak aç klanabilir. Bunlardan ilki, s n rl haf za sürümlerinin geli tirilmeleridir. Bu sayede, NR formülasyonunda arama do rultusu saptan rken gereksinilen Hessiyen matrisinin tersini, birkaç ad m önce (en çok 5 ad m) hesaplanan PEY’ne ait gradiyent ve Hessiyen matrislerinden yararlanarak tahmin etmeye çal mas ve böylece PEY e rili inin (curvature) dikkate al nmas d r. Dkincisi ise, NR-benzeri algoritmalarla E lenik Gradiyent (Conjugate Gradient) algoritmalar aras ndaki ili kilerin kurulabilmi olmas d r.

3.4.2.1 BFGS Optimizasyon Algoritmas

Uygulamada kullan lan en ba ar l NR-benzeri optimizasyon algoritmas Broyden-Fletcher-Goldfarb-Shanno (BFGS) algoritmas d r (Broyden, 1970; Fletcher, 1970; Goldfarb, 1970; Shanno, 1970). Bu algoritma, bir sonraki optimizasyon ad m nda kullan lacak Hessiyen matrisinin tahmin edilmesi s ras nda

(Hk+1) 1= (1 sk(gk)T/(gk)Tsk) (Hk) 1(1 gk(sk)T/(gk)Tsk) +(sk)Tsk/ (gk)Tsk (3.33) e itli inden yararlan r. Burada gk= Gk+1 Gk vektörünü göstermektedir. BFGS algoritmas n n Hessiyen matrisi tahmininde bir önceki ad mda göz önüne al nan Hessiyen matrisinden yararlanmas nedeniyle hesapsal maliyetinin hala yüksek bir düzeyde seyretti i söylenebilir. Bu nedenle maliyeti azaltacak biçimde yeni algoritma tasar mlar na duyulan gereksinimi kar lamak amac yla geli tirilmi algoritmalardan en bilinenleri a a da k saca özetlenmeye çal lacak olan e lenik gradiyent algoritmalar d r.

3.4.2.2 E8lenik Gradiyent Algoritmalar

NR e itliklerinin çözülmesini h zland ran e lenik50 gradiyent yöntemleri, arama do rultusunu (sk) tekrarlama ba nt lar na indirgeyerek geçmi etkilerini de göz önüne alma üstünlü üne sahiptirler. E lenik gradiyent algoritmalar nda kullan lan arama do rultusu genel olarak

sk+1 = Gk+1+(k+1 sk (3.34)

e itli iyle verilebilir. Burada (, kullan lan algoritmaya göre de i en bir parametredir ve s0 = G0 olarak kabul edilir. Bu yan yla e lenik gradiyent algoritmalar n n ba lang ç ad mlar n n Basamakl Dni algoritmas yla özde oldu u söylenebilir. Ancak ilerleyen optimizasyon ad mlar nda PEY üzerinde izlenecek yol geçmi etkilerinin karar mekanizmas na dâhil edilmesi sayesinde Basamakl Dni algoritmas n n izleyece i yoldan farkl la r. Fletcher-Reeves (FR), Polak-Ribiére (PR) ve Hestenes-Stiefel (HS) gibi yayg n biçimde kullan lan e lenik gradiyent algoritmalar nda göz önüne al nan tekrarlama ba nt lar ndaki (-parametreleri s ras yla (FR k+1= (Gk+1)T(Gk+1) / (Gk)T(Gk) (3.35) (PR k+1= (Gk+1)T(gk) / (Gk)T(Gk) (3.36) (HS k+1= (Gk+1)T(gk) / (sk)T(gk) (3.37) e itlikleri ile verilir (Schlick, 1998). E lenik gradiyent algoritmalar n n hesapsal ve zamansal maliyetleri, NR e itliklerini çözerken her optimizasyon ad m nda Hessiyen matrisine ihtiyaç duymamalar nedeniyle makul bir düzeyde seyretmektedir.

3.4.2.3 BERNY Optimizasyon Algoritmas

Bu tez kapsam nda yürütülen optimizasyon i lemlerinde, Schlegel taraf ndan geli tirilen BERNY optimizasyon algoritmas (Schlegel, 1982a ve 1982b; Peng ve Schlegel, 1993) kullan lm t r. NR-benzeri algoritmalar aras nda, Schlegel’in deyimiyle “modifiye edilmi8 bir e8lenik gradiyent algoritmas ” olarak görülebilecek BERNY algoritmas nda (Schlegel, 1982b), gradiyent vektörlerinin hesab ile enerji

50 Burada kullan lan e8lenik deyimi, PEY’de, s

i)H)sj = 0 e itli ini sa layan si ve sj do rultular n

hesab neredeyse ayn zaman ölçe inde ilerler ve PEY üzerinde do rultu aramas s ras nda Hessiyen matrisinin tahmin edilir ya da güncellenirken do rudan gradiyent vektörlerinden yararlan l r. Bu yan yla, NR-benzeri BFGS algoritmas ndan ayr larak e lenik gradiyent algoritmalara yak nla r.

BERNY algoritmas uyar nca Hessiyen matrisinin güncellenmesi sürecinin ayr nt lar na de inmek aç klay c olacakt r. Bu algoritman n ay rt edici özelli i son derece do rusal ba ml l k arz eden kartezyen koordinatlar üzerinden de il do rusal ba ml l azalt lm fazladan bir koordinat tak m 51 (redundant coordinates) üzerinden çal mas d r. BERNY optimizasyon algoritmas ndaki herhangi bir ad m (k. ad m); (i) Hessiyen matrisinin tahmin edilmesi s ras nda göz önüne al nacak terimlerin elde edilmesi, (ii) bir önceki (k-1’inci ad m) ad m ile mevcut ad m (k’inci ad m) birle tiren do rultu boyunca minimum arama ve (iii) bulunan minimumun PEY üzerindeki yerinin belirlenmesi biçiminde üç alt k sma ayr labilir.

Dlk k s mda (i), Schmidt dikle tirme ilkesinden hareketle, m-boyutlu yeni ortogonal koordinat tak m n n eleman olan vektörler (Qk), optimizasyon ad m nda içsel koordinatlarda öngörülen 'qkde i imleri yard m yla

Qk='qk = 1 1 k j jj(jj·'qk) (3.38) biçiminde tan mlan r. Burada, k = 1, . . . , m ve ortonormal birim vektörler jj= Qj (Qj

· Qj)-1/2 ile tan ml d r, di er bir deyi le (jj)†· jj= 1 e itli i sa lanmaktad r. Bu izle in sa lad as l kazanç, neredeyse do rusal ba ml olan içsel koordinatlar n do rusal ba ms z hale getirilmesidir. Bu noktada algoritman n temel amac (m × m)-boyutlu

('q†· j)(j3 j) = Gj (3.39)

51 Fazladan (redundant) koordinatlar deyimi literatürde bir kar kl a neden olmaktad r. Moleküldeki

herhangi bir içsel koordinat n öngörülen bir aral kta ve ad m say s nda de i tirilerek molekülün geri kalan içsel koordinatlar üzerinde yürütülen s radan optimizasyon i lemi biçiminde özetlenebilecek PEY taramas nda kullan lan fazladan koordinatlar molekülün içsel koordinatlar ndan herhangi biri olabilece i gibi, düzlem d bükülme aç s ya da dihedral aç gibi geometrik parametreler de olabilir (Peng, Ayala, Schlegel ve Frisch, 1996). Burada kullan lan fazladan koordinat deyimiyle molekülün içsel koordinatlar yard m yla tan mlanan ve kendi içinde do rusal ba ml l azalt lm koordinat tak m nitelenmektedir.

do rusal e itlik toplulu unun fazladan koordinat tak m uzay nda çözülmesine indirgenir52. Burada, 3 fazladan koordinat uzay nda Hessiyen matrisinin kar l d r. Bu e itli in çözümleri olan matris elemanlar

(ji† 3j ) = ('qj i† ji)-1[(Gi† jj) = 1 1 i k ('qi† jk) (jk† 3j )] (3.40) j ile verilir (Nesbet, 2004). Hessiyen matrisi güncellenirken dikkate al nacak e itlik,

H0 ba lang ç ad m nda basit bir de erlik kuvvet alan (Schlegel, 1984) yard m yla tahmin edilen Hessiyen matrisini göstermek üzere

H = H0+'H (3.41)

olarak yaz labilir. Burada simetrikle tirilmi 'H matrisi 'H =

j i,

ji[(ji† 3j )j*ij + (jj† 3j )j>i (ji i† H0 jj )]jj† (3.42) e itli iyle tan ml d r.

Minimum arama a amas nda (ii), bir önceki ad mda bulunan minimum noktas ndaki enerji ve gradiyent de erleri ile mevcut noktadaki enerji ve gradiyent de erleri ikinci mertebeden bir polinom ifadesiyle birbirine ba lanarak söz konusu iki noktay birle tiren do rultu boyunca yaln zca bir minimum noktas n n bulunmas sa lan r. Bu s rada minimum noktas ndaki gradiyent vektörü, mevcut noktayla bir önceki ad mda göz önüne al nan noktadaki gradiyent vektörlerine dayal interpolasyon yard m yla belirlenir.

Bulunan minimumun PEY üzerindeki yerinin NR-algoritmas nda oldu u gibi sk = (Hk) 1Gk vektörüyle yenilenerek bir sonraki ad ma geçilir (iii). Yenileme (ya da geometri de i imi) i lemi için gereken Hessiyen matrisinin tersinin elde edilmesi kö egenle tirme i lemiyle kolayla t r l r. Bu sayede Hessiyen matrisinin negatif özde erlere sahip olup olmad da kontrol edilebilir. E er Hessiyen matrisi kendi pozitif tan ml l n ortadan kald ran en az bir negatif özde ere sahip olursa, o özde erin i areti terslenerek ilgili özvektör boyunca Basamakl Dni algoritmas takip

52 E itlik (3.39)’da kapal biçimde görülen arama vektörü 'q’nun, algoritmada kullan lan fazladan

koordinat tak m n geren birim vektörlerin ortonormallik ko uluna ilâveten Hessiyen matrisinin simetri özelli i (H= H) kullan larak NR-yönteminde öngörülen arama vektörüne e de er oldu u

edilerek süreç sonland r l r. Hessiyen matrisinin negatif özde erlerini ele alma biçimi dikkate al nd nda, bu algoritman n geçi durumu geometrilerinin aranmas amac yla da etkin biçimde kullan labilece i görülür.

Bu algoritman n moleküldeki atom say s na (N) ba l zaman ölçe i N3 ile ifade edildi inden (Hratchian ve Schlegel, 2005), büyük moleküller için zamansal maliyetinin yüksek olaca söylenebilir. Hratchian ve Schlegel (2005) kartezyen ve fazladan koordinat tak mlar aras ndaki dönü ümün hesapsal maliyeti art r c etkisinin Cholesky ayr m ya da seyrek elemanl (sparse) matris yöntemleriyle do rusal ölçe e indirgenebilece ini, ancak görünürdeki bu olumsuzlu un algoritman n koordinat dönü ümü sayesinde art r lm etkinli i taraf ndan tazmin edilece ini kaydetmektedirler (s. 202).

Benzer Belgeler