Jakarta Aktual
Jakarta Aktual

Berita Aktual dan Faktual

Jakarta Aktual
Jakarta Aktual© 2026
Jakarta Aktual
Jakarta Aktual

Berita Aktual dan Faktual

BerandaWikiEvolusi diferensial
Artikel Wikipedia

Evolusi diferensial

Evolusi diferensial adalah algoritma evolusioner yang digunakan untuk mengoptimalkan suatu masalah dengan cara berulang kali mencoba memperbaiki solusi kandidat berdasarkan suatu ukuran kualitas tertentu. Metode semacam ini umumnya dikenal sebagai metaheuristik, karena hanya membuat sedikit atau bahkan tidak ada asumsi tentang masalah yang dioptimalkan dan mampu menjelajahi ruang solusi kandidat yang sangat luas. Namun, algoritma metaheuristik seperti DE tidak menjamin solusi optimal akan ditemukan.

Wikipedia article
Diperbarui 8 November 2025

Sumber: Lihat artikel asli di Wikipedia

Evolusi diferensial
Algoritma Evolusi Diferensial mengoptimalkan fungsi Ackley 2D.

Evolusi diferensial (bahasa Inggris: Differential evolution atau disingkat DE) adalah algoritma evolusioner yang digunakan untuk mengoptimalkan suatu masalah dengan cara berulang kali mencoba memperbaiki solusi kandidat berdasarkan suatu ukuran kualitas tertentu. Metode semacam ini umumnya dikenal sebagai metaheuristik, karena hanya membuat sedikit atau bahkan tidak ada asumsi tentang masalah yang dioptimalkan dan mampu menjelajahi ruang solusi kandidat yang sangat luas. Namun, algoritma metaheuristik seperti DE tidak menjamin solusi optimal akan ditemukan.

DE digunakan untuk fungsi multidimensi bernilai riil, tanpa memanfaatkan gradien dari masalah yang sedang dioptimalkan. Hal ini berarti DE tidak mensyaratkan masalah optimasi yang dapat didiferensiasikan, sebagaimana metode optimasi klasik, seperti penurunan gradien dan metode kuasi-Newton. Oleh karena itu, DE juga dapat digunakan pada masalah optimasi yang bahkan tidak bersifat kontinu, bising (noisy), berubah seiring waktu, dan lain sebagainya.[1]

DE mengoptimalkan suatu masalah dengan mempertahankan populasi solusi kandidat, lalu menciptakan solusi kandidat baru dengan menggabungkan solusi yang sudah ada menggunakan rumus. Kemudian, DE hanya mempertahankan solusi kandidat mana pun yang memiliki skor atau fitness terbaik. Dengan demikian, masalah optimasi diperlakukan sebagai sebuah kotak hitam (black box) yang hanya mengembalikan ukuran kualitas suatu solusi kandidat sehingga gradien tidak diperlukan.

Sejarah

Storn dan Price memperkenalkan Evolusi diferensial pada tahun 1995.[2][3][4] Sejumlah buku telah diterbitkan mengenai aspek teoretis dan praktis penggunaan DE, termasuk dalam komputasi paralel, optimasi multiobjektif, dan optimasi dengan kendala. Selain itu, buku-buku tersebut juga memuat tinjauan berbagai aplikasinya.[5][6][7][8] Survei mengenai aspek penelitian multi-faset DE dapat ditemukan dalam beberapa jurnal artikel.[9][10]

Algoritma

Varian dasar algoritma DE bekerja dalam bentuk populasi solusi kandidat yang disebut agen. Agen-agen ini kemudian digerakkan di dalam ruang pencarian dengan menggunakan rumus matematika sederhana untuk mengombinasikan posisi agen-agen lain yang ada dalam populasi. Jika posisi baru suatu agen menghasilkan perbaikan, maka posisi tersebut diterima dan menjadi bagian dari populasi. Jika tidak, posisi baru tersebut akan diabaikan. Proses ini diulangi terus menerus, dengan harapan bahwa solusi yang pada akhirnya ditemukan adalah solusi yang memuaskan meskipun tidak terjamin.

Secara formal, misal f : R n → R {\displaystyle f:\mathbb {R} ^{n}\to \mathbb {R} } {\displaystyle f:\mathbb {R} ^{n}\to \mathbb {R} } adalah fungsi fitness yang harus diminimalkan (perhatikan bahwa maksimalisasi dapat dilakukan dengan mempertimbangkan fungsi h := − f {\displaystyle h:=-f} {\displaystyle h:=-f}). Fungsi ini menerima sebuah solusi kandidat sebagai argumen dalam bentuk vektor bilangan riil dan juga mengembalikan sebuah bilangan riil sebagai keluaran yang menyatakan nilai fitness dari solusi kandidat tersebut. Gradien dari f {\displaystyle f} {\displaystyle f} tidak diketahui. Adapun tujuan optimasi yang dilakukan adalah menemukan solusi m {\displaystyle \mathbf {m} } {\displaystyle \mathbf {m} } sedemikan sehingga f ( m ) ≤ f ( p ) {\displaystyle f(\mathbf {m} )\leq f(\mathbf {p} )} {\displaystyle f(\mathbf {m} )\leq f(\mathbf {p} )} untuk semua p {\displaystyle \mathbf {p} } {\displaystyle \mathbf {p} } dalam ruang pencarian, yang berarti m {\displaystyle \mathbf {m} } {\displaystyle \mathbf {m} } adalah minimum global.

Misal x ∈ R n {\displaystyle \mathbf {x} \in \mathbb {R} ^{n}} {\displaystyle \mathbf {x} \in \mathbb {R} ^{n}} menyatakan solusi kandidat (agen) dalam populasi. Maka algoritma dasar DE dapat dijelaskan sebagai berikut:

  • Pilih parameter NP ≥ 4 {\displaystyle {\text{NP}}\geq 4} {\displaystyle {\text{NP}}\geq 4}, CR ∈ [ 0 , 1 ] {\displaystyle {\text{CR}}\in [0,1]} {\displaystyle {\text{CR}}\in [0,1]}, dan F ∈ [ 0 , 2 ] {\displaystyle F\in [0,2]} {\displaystyle F\in [0,2]}.
    • NP: ukuran populasi, yaitu jumlah agen dalam satu populasi atau "induk" (parents).
    • CR: probabilitas persilangan (crossover).
    • F: bobot diferensial.
    • Pengaturan yang umum digunakan adalah N P = 10 n {\displaystyle NP=10n} {\displaystyle NP=10n}, C R = 0.9 {\displaystyle CR=0.9} {\displaystyle CR=0.9}, dan F = 0.8 {\displaystyle F=0.8} {\displaystyle F=0.8}.
    • Kinerja optimasi sangat dipengaruhi oleh pemilihan parameter-parameter ini.
  • Inisialisasi semua agen x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} } dengan posisi acak dalam ruang pencarian.
  • Ulangi langkah-langkah berikut hingga kriteria penghentian (termination criterion) terpenuhi (misalnya jumlah iterasi tercapai atau nilai fitness memadai):
    • Untuk setiap agen x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} } dalam populasi:
      • Pilih tiga agen a , b {\displaystyle \mathbf {a} ,\mathbf {b} } {\displaystyle \mathbf {a} ,\mathbf {b} }, dan c {\displaystyle \mathbf {c} } {\displaystyle \mathbf {c} } dari populasi secara acak, agen-agen ini harus merupakan agen yang berbeda dan juga harus berbeda dari agen x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} } ( a {\displaystyle \mathbf {a} } {\displaystyle \mathbf {a} } disebut sebagai "basis" vektor).
      • Pilih sebuah indeks acak R ∈ { 1 , … , n } {\displaystyle R\in \{1,\ldots ,n\}} {\displaystyle R\in \{1,\ldots ,n\}} yang n {\displaystyle n} {\displaystyle n} merupakan dimensi dari masalah yang sedang dioptimasi
      • Hitung potensi posisi baru dari agen, y = [ y 1 , … , y n ] {\displaystyle \mathbf {y} =[y_{1},\ldots ,y_{n}]} {\displaystyle \mathbf {y} =[y_{1},\ldots ,y_{n}]} sebagaimana berikut:
        • Untuk setiap i ∈ { 1 , … , n } {\displaystyle i\in \{1,\ldots ,n\}} {\displaystyle i\in \{1,\ldots ,n\}}, pilih sebuah angka acak dengan distribusi seragam r i ∼ U ( 0 , 1 ) {\displaystyle r_{i}\sim U(0,1)} {\displaystyle r_{i}\sim U(0,1)}
        • Jika r i < C R {\displaystyle r_{i}<CR} {\displaystyle r_{i}<CR} atau i = R {\displaystyle i=R} {\displaystyle i=R} maka tetapkan y i = a i + F × ( b i − c i ) {\displaystyle y_{i}=a_{i}+F\times (b_{i}-c_{i})} {\displaystyle y_{i}=a_{i}+F\times (b_{i}-c_{i})}. Jika tidak, tetapkan y i = x i {\displaystyle y_{i}=x_{i}} {\displaystyle y_{i}=x_{i}} (Indeks R {\displaystyle R} {\displaystyle R} selalu diganti untuk menjamin perbedaan minimal).
      • Jika f ( y ) ≤ f ( x ) {\displaystyle f(\mathbf {y} )\leq f(\mathbf {x} )} {\displaystyle f(\mathbf {y} )\leq f(\mathbf {x} )} maka ganti agen x {\displaystyle \mathbf {x} } {\displaystyle \mathbf {x} } dalam populasi dengan solusi kandidat y {\displaystyle \mathbf {y} } {\displaystyle \mathbf {y} } (yang sama atau lebih baik.
  • Setelah proses selesai, pilih agen dalam populasi dengan nilai fitness terbaik, dan kembalikan sebagai solusi kandidat terbaik yang ditemukan.

Pemilihan parameter

Lanskap kinerja yang menunjukkan performa agregat DE dasar pada permasalahan uji Sphere dan Rosenbrock ketika parameter NP {\displaystyle {\text{NP}}} {\displaystyle {\text{NP}}} dan F {\displaystyle {\text{F}}} {\displaystyle {\text{F}}} berbeda, dan CR {\displaystyle {\text{CR}}} {\displaystyle {\text{CR}}} =0,9.

Pemilihan parameter DE NP {\displaystyle {\text{NP}}} {\displaystyle {\text{NP}}}, CR {\displaystyle {\text{CR}}} {\displaystyle {\text{CR}}} Dan F {\displaystyle F} {\displaystyle F} dapat berdampak besar pada kinerja optimasi. Oleh karena itu, pemilihan parameter DE yang menghasilkan kinerja baik telah menjadi subjek banyak penelitian. Aturan praktis untuk pemilihan parameter dirancang oleh Storn dkk.[4][5] dan Liu dan Lampinen.[11] Analisis konvergensi matematis mengenai pemilihan parameter dilakukan oleh Zaharie.[12]

Penanganan kendala

Evolusi diferensial juga dapat digunakan untuk optimasi dengan kendala. Salah satu metode yang umum adalah dengan memodifikasi fungsi target agar mencakup penalti atas setiap pelanggaran kendala, yang dinyatakan sebagai: f ( ~ x ) = f ( x ) + ρ × C V ( x ) {\displaystyle f{\tilde {(}}x)=f(x)+\rho \times \mathrm {CV} (x)} {\displaystyle f{\tilde {(}}x)=f(x)+\rho \times \mathrm {CV} (x)} . Di Sini, C V ( x ) {\displaystyle \mathrm {CV} (x)} {\displaystyle \mathrm {CV} (x)} merepresentasikan pelanggaran kendala, yang dapat berupa penalti L1 (besar pelanggaran secara langsung) atau penalti L2 (kuadrat dari besar pelanggaran).

Namun, metode ini memiliki beberapa kekurangan. Salah satu tantangan yang signifikan adalah pemilihan koefisien penalti yang tepat ρ {\displaystyle \rho } {\displaystyle \rho } . Jika ρ {\displaystyle \rho } {\displaystyle \rho } diatur terlalu rendah, penerapan batasan mungkin tidak efektif. Sebaliknya, jika terlalu tinggi, proses konvergensi dapat sangat melambat atau bahkan terhenti. Terlepas dari tantangan-tantangan ini, pendekatan ini tetap banyak digunakan karena kesederhanaannya dan karena tidak memerlukan perubahan pada algoritma evolusi diferensial itu sendiri.

Terdapat strategi alternatif, seperti proyeksi ke himpunan feasible (feasible set) atau reduksi dimensi, yang dapat digunakan pada kasus dengan kendala berbentuk box atau kendala linear. Namun, dalam konteks kendala nonlinier secara umum, metode yang paling andal biasanya melibatkan fungsi penalti.

Varian

Varian algoritma DE terus dikembangkan dalam upaya untuk meningkatkan kinerja optimasi.[13] Arah pengembangan DE dapat diuraikan sebagai berikut:

  • Skema baru untuk melakukan persilangan dan mutasi agen
  • Berbagai strategi untuk penanganan kendala
  • Strategi adaptif yang secara dinamis menyesuaikan ukuran populasi, parameter F dan CR
  • Algoritma khusus untuk optimasi skala besar
  • Algoritma multi-objektif dan banyak-objektif
  • Teknik untuk menangani variabel biner/integer

Lihat juga

  • Algoritma koloni lebah buatan
  • CMA-ES
  • Strategi evolusi
  • Algoritma genetika

Referensi

  1. ↑ Rocca, P.; Oliveri, G.; Massa, A. (2011). "Differential Evolution as Applied to Electromagnetics". IEEE Antennas and Propagation Magazine. 53 (1): 38–49. Bibcode:2011IAPM...53...38R. doi:10.1109/MAP.2011.5773566. S2CID 27555808.
  2. ↑ Storn, Rainer; Price, Kenneth (1995). "Differential evolution—a simple and efficient scheme for global optimization over continuous spaces" (PDF). International Computer Science Institute. TR (95). Berkeley: TR-95-012. Diakses tanggal 3 April 2024.
  3. ↑ Storn, R.; Price, K. (1997). "Differential evolution - a simple and efficient heuristic for global optimization over continuous spaces". Journal of Global Optimization. 11 (4): 341–359. Bibcode:1997JGOpt..11..341S. doi:10.1023/A:1008202821328. S2CID 5297867.
  4. 1 2 Storn, R. (1996). "On the usage of differential evolution for function optimization". Biennial Conference of the North American Fuzzy Information Processing Society (NAFIPS). hlm. 519–523. doi:10.1109/NAFIPS.1996.534789. S2CID 16576915.
  5. 1 2 Price, K.; Storn, R.M.; Lampinen, J.A. (2005). Differential Evolution: A Practical Approach to Global Optimization. Springer. ISBN 978-3-540-20950-8.
  6. ↑ Feoktistov, V. (2006). Differential Evolution: In Search of Solutions. Springer. ISBN 978-0-387-36895-5.
  7. ↑ Onwubolu, G. C.; Babu, B. V. (2004). New Optimization Techniques in Engineering. Studies in Fuzziness and Soft Computing. Vol. 141. doi:10.1007/978-3-540-39930-8. ISBN 978-3-642-05767-0.
  8. ↑ Chakraborty, U.K., ed. (2008), Advances in Differential Evolution, Springer, ISBN 978-3-540-68827-3
  9. ↑ S. Das; P. N. Suganthan (Feb 2011). "Differential Evolution: A Survey of the State-of-the-art". IEEE Transactions on Evolutionary Computation. 15 (1): 4–31. doi:10.1109/TEVC.2010.2059031.
  10. ↑ S. Das; S. S. Mullick; P. N. Suganthan (2016). "Recent Advances in Differential Evolution - An Updated Survey" (PDF). Swarm and Evolutionary Computation. 27: 1–30. doi:10.1016/j.swevo.2016.01.004.
  11. ↑ Liu, J.; Lampinen, J. (2002). "On setting the control parameter of the differential evolution method". Proceedings of the 8th International Conference on Soft Computing (MENDEL). Brno, Czech Republic. hlm. 11–18.
  12. ↑ Zaharie, D. (2002). "Critical values for the control parameters of differential evolution algorithms". Proceedings of the 8th International Conference on Soft Computing (MENDEL). Brno, Czech Republic. hlm. 62–67.
  13. ↑ Swagatam Das; Sankha Subhra Mullick; P.N. Suganthan (2016). Recent advances in differential evolution.
Artikel ini tidak memiliki konten kategori. Bantulah dengan menambah kategori yang sesuai sehingga artikel ini terkategori dengan artikel lain yang sejenis.
Basis data pengawasan otoritas: Nasional Sunting di Wikidata
  • Republik Ceko

Bagikan artikel ini

Share:

Daftar Isi

  1. Sejarah
  2. Algoritma
  3. Pemilihan parameter
  4. Penanganan kendala
  5. Varian
  6. Lihat juga
  7. Referensi

Artikel Terkait

Geometri

cabang matematika yang mengukur bentuk, ukuran, dan posisi objek

Staphylococcus aureus resisten-metisilin

antimikroba. Dengan kata lain, MRSA adalah jenis S. aureus yang telah berevolusi atau memperoleh resistensi obat ganda terhadap antibiotik beta-laktam

Seleksi alam

perbedaan kemampuan untuk hidup dan reproduksi dari suatu individu yang diakibatkan oleh perbedaan kecocokan fenotipe yang dimiliki organisme tersebut dengan lingkungan

Jakarta Aktual
Jakarta Aktual© 2026