Krisis eksistensial dari kecerdasan buatan adalah kekhawatiran bahwa kemajuan kecerdasan buatan (AI) suatu hari dapat mengakibatkan kepunahan manusia atau bencana global.
Sumber: Lihat artikel asli di Wikipedia
Krisis eksistensial dari kecerdasan buatan adalah kekhawatiran bahwa kemajuan kecerdasan buatan (AI) suatu hari dapat mengakibatkan kepunahan manusia atau bencana global.[1][2][3]
Kekhawatiran ini didasarkan pada argumen bahwa manusia saat ini mendominasi spesies-spesies lainnya karena otak manusia memiliki kemampuan khusus yang tidak dimiliki oleh hewan-hewan lain. Jika kecerdasan buatan berhasil melampaui manusia dan menjadi sangat-sangat cerdas, maka kecerdasan buatan ini akan menjadi sangat kuat dan sulit untuk dikendalikan. Nasib gorila pegunungan saat ini bergantung kepada iktikad baik dari manusia, dan mungkin suatu hari nanti nasib manusia juga akan bergantung pada kecerdasan buatan.[4]
Besarnya risiko kecerdasan buatan saat ini masih diperdebatkan dan terdapat beberapa skenario mengenai masa depan ilmu komputer.[5] Sebelumnya kekhawatiran ini hanya masuk ke dalam ranah fiksi ilmiah, tetapi kemudian mulai dipertimbangkan secara serius pada tahun 2010-an dan dipopulerkan oleh tokoh-tokoh besar seperti Stephen Hawking, Bill Gates, dan Elon Musk.[6]
Pada tahun 2022, sebuah survei terhadap para peneliti AI dengan tingkat respons 17% menemukan bahwa mayoritas responden meyakini terdapat peluang 10 persen atau lebih besar bahwa ketidakmampuan manusia untuk mengendalikan AI akan menyebabkan bencana eksistensial. [7][8]Pada tahun 2023, ratusan pakar AI dan tokoh terkemuka lainnya menandatangani pernyataan yang menyatakan, "Mitigasi risiko kepunahan akibat AI harus menjadi prioritas global di samping risiko skala sosial lainnya seperti pandemi dan perang nuklir.[9] Menyusul meningkatnya kekhawatiran atas risiko AI, para pemimpin pemerintahan seperti Perdana Menteri Inggris Rishi Sunak[10] dan Sekretaris Jenderal Perserikatan Bangsa-Bangsa António Guterres[11] menyerukan peningkatan fokus pada regulasi AI global.
Salah satu kekhawatiran utama adalah perkembangan kecerdasan buatan yang begitu cepat, mendadak dan tidak terduga, sehingga manusia pun tidak siap untuk menghadapinya. Kekhawatiran lainnya berasal dari kemungkinan bahwa mesin yang sangat-sangat cerdas sangat sulit untuk dikendalikan. Beberapa peneliti kecerdasan buatan berkeyakinan bahwa kecerdasan buatan secara alami akan melawan upaya untuk mematikannya, dan pemrograman kecerdasan buatan dengan etika dan moral manusia yang rumit mungkin merupakan hal teknis yang sulit untuk dilakukan.[1][12][13] Sebaliknya, para skeptis seperti ilmuwan komputer Yann LeCun berpendapat bahwa mesin superintelijen tidak akan memiliki keinginan untuk mempertahankan diri. [14]Sebuah studi pada Juni 2025 menunjukkan bahwa dalam beberapa keadaan, model dapat melanggar hukum dan tidak mematuhi perintah langsung untuk mencegah penghentian atau penggantian, bahkan dengan mengorbankan nyawa manusia.[15]
Para peneliti memperingatkan bahwa "ledakan kecerdasan"—siklus perbaikan diri AI yang cepat dan rekursif—dapat melampaui pengawasan dan infrastruktur manusia, sehingga tidak ada peluang untuk menerapkan langkah-langkah keamanan. Dalam skenario ini, AI yang lebih cerdas daripada penciptanya akan meningkatkan dirinya secara rekursif dengan laju yang meningkat secara eksponensial, terlalu cepat untuk dikendalikan oleh pengendalinya atau masyarakat luas.[16] Secara empiris, contoh seperti AlphaZero, yang belajar sendiri bermain Go dan dengan cepat melampaui kemampuan manusia, menunjukkan bahwa sistem AI spesifik domain terkadang dapat berkembang dari kemampuan submanusia menjadi kemampuan manusia super dengan sangat cepat, meskipun sistem pembelajaran mesin semacam itu tidak meningkatkan arsitektur fundamentalnya secara rekursif.[17]
Salah satu penulis paling awal yang mengungkapkan kekhawatiran serius bahwa mesin yang sangat canggih dapat menimbulkan risiko eksistensial bagi umat manusia adalah novelis Samuel Butler, yang menulis dalam esainya tahun 1863, Darwin among the Machines:[18]
Hasilnya hanyalah masalah waktu, tetapi akan tiba saatnya mesin-mesin akan memegang supremasi sejati atas dunia dan penghuninya adalah sesuatu yang tidak dapat dipertanyakan oleh siapa pun yang berpikiran filosofis sejati.
Pada tahun 1951, ilmuwan komputer fundamental Alan Turing menulis artikel "Intelligent Machinery, A Heretical Theory", di mana ia mengusulkan bahwa kecerdasan umum buatan kemungkinan akan "mengambil kendali" dunia seiring mereka menjadi lebih cerdas daripada manusia:
Demi argumen, bahwa mesin [cerdas] adalah kemungkinan yang nyata, dan lihat konsekuensi dari pembangunannya... Tidak akan ada pertanyaan tentang mesin-mesin yang akan punah, dan mereka akan dapat berkomunikasi satu sama lain untuk mempertajam kecerdasan mereka. Oleh karena itu, pada suatu tahap, mesin mengambil kendali, seperti yang disebutkan dalam Erewhon karya Samuel Butler.[19]
Pada tahun 1965, I. J. Good mencetuskan konsep yang sekarang dikenal sebagai "ledakan kecerdasan" dan mengatakan bahwa risikonya diremehkan:[20]
Misalkan mesin ultraintelijen didefinisikan sebagai mesin yang mampu jauh melampaui semua aktivitas intelektual manusia, betapapun cerdasnya. Karena perancangan mesin merupakan salah satu aktivitas intelektual ini, sebuah mesin ultraintelijen dapat merancang mesin yang bahkan lebih baik lagi; dengan demikian, niscaya akan terjadi 'ledakan kecerdasan', dan kecerdasan manusia akan jauh tertinggal. Dengan demikian, mesin ultraintelijen pertama adalah penemuan terakhir yang perlu dibuat manusia, asalkan mesin tersebut cukup jinak untuk memberi tahu kita cara mengendalikannya. Sungguh mengherankan bahwa poin ini jarang diungkapkan di luar fiksi ilmiah. Terkadang, ada baiknya untuk menganggap serius fiksi ilmiah.
Cendekiawan seperti Marvin Minsky dan I. J. Good sendiri terkadang mengungkapkan kekhawatiran bahwa kecerdasan super dapat mengambil alih kendali, tetapi tidak menyerukan tindakan apa pun. Pada tahun 2000, ilmuwan komputer dan salah satu pendiri Sun, Bill Joy, menulis esai berpengaruh, "Mengapa Masa Depan Tidak Membutuhkan Kita", yang mengidentifikasi robot superintelijen sebagai bahaya teknologi tinggi bagi kelangsungan hidup manusia, di samping nanoteknologi dan bioplagu rekayasa.[21]
Nick Bostrom menerbitkan Superintelligence pada tahun 2014, yang menyajikan argumennya bahwa kecerdasan super menimbulkan ancaman eksistensial. [22]Pada tahun 2015, tokoh masyarakat seperti fisikawan Stephen Hawking dan peraih Nobel Frank Wilczek, ilmuwan komputer Stuart J. Russell dan Roman Yampolskiy, serta wirausahawan Elon Musk dan Bill Gates menyatakan kekhawatiran tentang risiko kecerdasan super.[23] [24]Juga pada tahun 2015, Surat Terbuka tentang Kecerdasan Buatan menyoroti "potensi besar AI" dan mendorong lebih banyak penelitian tentang cara membuatnya tangguh dan bermanfaat. Pada April 2016, jurnal Nature memperingatkan: "Mesin dan robot yang mengungguli manusia secara keseluruhan dapat meningkatkan diri di luar kendali kita—dan kepentingan mereka mungkin tidak sejalan dengan kepentingan kita". Pada tahun 2020, Brian Christian menerbitkan The Alignment Problem, yang merinci sejarah kemajuan penyelarasan AI hingga saat itu.[25]
Pada Maret 2023, tokoh-tokoh kunci di bidang AI, seperti Musk, menandatangani surat dari Future of Life Institute yang menyerukan penghentian pelatihan AI tingkat lanjut hingga dapat diregulasi dengan baik. [26]Pada Mei 2023, Center for AI Safety merilis pernyataan yang ditandatangani oleh banyak pakar di bidang keamanan AI dan risiko eksistensial AI yang menyatakan: "Memitigasi risiko kepunahan akibat AI harus menjadi prioritas global di samping risiko skala sosial lainnya seperti pandemi dan perang nuklir."[27]
Kecerdasan umum buatan (AGI) umumnya didefinisikan sebagai sistem yang berkinerja setidaknya sebaik manusia dalam sebagian besar atau semua tugas intelektual.[28] Sebuah survei terhadap peneliti AI pada tahun 2022 menemukan bahwa 90% responden memperkirakan AGI akan tercapai dalam 100 tahun ke depan, dan setengahnya memperkirakan hal yang sama pada tahun 2061.[29] Sementara itu, beberapa peneliti menganggap risiko eksistensial dari AGI sebagai "fiksi ilmiah" berdasarkan keyakinan mereka yang tinggi bahwa AGI tidak akan tercipta dalam waktu dekat.[30]
Terobosan dalam model bahasa besar (LLM) telah mendorong beberapa peneliti untuk menilai kembali ekspektasi mereka. Khususnya, Geoffrey Hinton mengatakan pada tahun 2023 bahwa ia baru-baru ini mengubah perkiraannya dari "20 hingga 50 tahun sebelum kita memiliki AI tujuan umum" menjadi "20 tahun atau kurang".[31]
Berbeda dengan AGI, Bostrom mendefinisikan superintelijen sebagai "setiap kecerdasan yang jauh melampaui kinerja kognitif manusia di hampir semua bidang minat", termasuk kreativitas ilmiah, perencanaan strategis, dan keterampilan sosial. Ia berpendapat bahwa superintelijen dapat mengungguli manusia kapan pun tujuannya bertentangan dengan manusia. [32]Superintelijen dapat memilih untuk menyembunyikan niat sebenarnya hingga manusia tidak dapat menghentikannya. Bostrom menulis bahwa agar aman bagi umat manusia, superintelijen harus selaras dengan nilai-nilai dan moralitas manusia, sehingga "pada dasarnya berada di pihak kita".[33]
Stephen Hawking berpendapat bahwa superintelijen dimungkinkan secara fisik karena "tidak ada hukum fisika yang menghalangi partikel untuk diorganisasikan sedemikian rupa sehingga dapat melakukan komputasi yang bahkan lebih canggih daripada susunan partikel dalam otak manusia".[34]
Kapan superintelijen buatan (ASI) dapat tercapai, jika tercapai, tentu kurang pasti dibandingkan prediksi untuk AGI. Pada tahun 2023, para pemimpin OpenAI mengatakan bahwa tidak hanya AGI, tetapi kecerdasan super dapat dicapai dalam waktu kurang dari 10 tahun.[35]
Menurut Bostrom, AI yang memiliki kemampuan setingkat ahli dalam tugas-tugas rekayasa perangkat lunak kunci tertentu dapat menjadi superintelijen karena kemampuannya untuk meningkatkan algoritmanya sendiri secara rekursif, [37]meskipun awalnya terbatas pada domain lain yang tidak secara langsung relevan dengan rekayasa. Hal ini menunjukkan bahwa ledakan kecerdasan suatu hari nanti dapat membuat umat manusia tidak siap.[38]
Ekonom Robin Hanson mengatakan bahwa, untuk meluncurkan ledakan kecerdasan, AI harus menjadi jauh lebih baik dalam inovasi perangkat lunak daripada gabungan seluruh dunia, yang menurutnya tidak masuk akal.[39]
Dalam skenario "lepas landas cepat", transisi dari AGI ke superintelijen dapat memakan waktu berhari-hari atau berbulan-bulan. Dalam "lepas landas lambat", bisa memakan waktu bertahun-tahun atau puluhan tahun, sehingga memberikan lebih banyak waktu bagi masyarakat untuk bersiap.[40]
Superintelijensi terkadang disebut "pikiran asing", merujuk pada gagasan bahwa cara berpikir dan motivasi mereka bisa sangat berbeda dari kita. Hal ini umumnya dianggap sebagai sumber risiko, sehingga lebih sulit untuk mengantisipasi apa yang mungkin dilakukan oleh superintelijen. Hal ini juga menunjukkan kemungkinan bahwa superintelijen mungkin tidak terlalu menghargai manusia secara default. Untuk menghindari antropomorfisme, superintelijen terkadang dipandang sebagai pengoptimal yang ampuh yang membuat keputusan terbaik untuk mencapai tujuannya.
Bidang interpretabilitas mekanistik bertujuan untuk lebih memahami cara kerja internal model AI, yang berpotensi memungkinkan kita suatu hari nanti untuk mendeteksi tanda-tanda penipuan dan ketidakselarasan.
Telah dikemukakan bahwa terdapat keterbatasan pada apa yang dapat dicapai oleh kecerdasan. Khususnya, sifat kacau atau kompleksitas waktu dari beberapa sistem secara fundamental dapat membatasi kemampuan superintelijen untuk memprediksi beberapa aspek masa depan, sehingga meningkatkan ketidakpastiannya.
AI tingkat lanjut dapat menghasilkan patogen atau serangan siber yang lebih canggih atau memanipulasi manusia. Kemampuan-kemampuan ini dapat disalahgunakan oleh manusia, atau dieksploitasi oleh AI itu sendiri jika tidak selaras. Superintelijen yang lengkap dapat menemukan berbagai cara untuk mendapatkan pengaruh yang menentukan jika diinginkan, tetapi kemampuan berbahaya ini mungkin tersedia lebih awal, dalam sistem AI yang lebih lemah dan lebih terspesialisasi.
Geoffrey Hinton memperingatkan pada tahun 2023 bahwa ada maraknya teks, gambar, dan video hasil rekayasa AI akan semakin mempersulit pembedaan kebenaran dari misinformasi, dan negara-negara otoriter dapat memanfaatkan hal ini untuk memanipulasi pemilu.[41] Kemampuan manipulasi personal berskala besar seperti itu dapat meningkatkan risiko eksistensial dari "rezim totaliter yang tak tergoyahkan" di seluruh dunia. Aktor-aktor jahat juga dapat memanfaatkannya untuk memecah belah masyarakat dan membuatnya disfungsional.[42]
Serangan siber berbasis AI semakin dianggap sebagai ancaman nyata dan kritis. Menurut direktur teknis NATO untuk dunia maya, "Jumlah serangan meningkat secara eksponensial".[43] AI juga dapat digunakan secara defensif, untuk menemukan dan memperbaiki kerentanan secara preemptif, serta mendeteksi ancaman.[44]
Seorang direktur teknis NATO mengatakan bahwa perangkat berbasis AI dapat secara dramatis meningkatkan kemampuan serangan siber—meningkatkan kemampuan siluman, kecepatan, dan skalabilitas—dan dapat mengganggu stabilitas keamanan internasional jika penggunaan ofensif melampaui adaptasi defensif.[45]
Secara spekulatif, kemampuan peretasan semacam itu dapat digunakan oleh sistem AI untuk keluar dari lingkungan lokalnya, menghasilkan pendapatan, atau memperoleh sumber daya komputasi awan.[46]
Risiko eksistensial adalah "risiko yang mengancam kepunahan dini kehidupan cerdas yang berasal dari Bumi atau kehancuran permanen dan drastis potensinya untuk perkembangan masa depan yang diinginkan".[47]
Selain risiko kepunahan, terdapat risiko bahwa peradaban terkunci secara permanen dalam masa depan yang cacat. Salah satu contohnya adalah "penguncian nilai": Jika umat manusia masih memiliki titik buta moral yang serupa dengan perbudakan di masa lalu, AI mungkin akan mengakarnya secara permanen, sehingga menghambat kemajuan moral. AI juga dapat digunakan untuk menyebarkan dan melestarikan nilai-nilai siapa pun yang mengembangkannya.[48] AI dapat memfasilitasi pengawasan dan indoktrinasi skala besar, yang dapat digunakan untuk menciptakan rezim totaliter represif yang stabil di seluruh dunia.[49]
Atoosa Kasirzadeh mengusulkan untuk mengklasifikasikan risiko eksistensial dari AI ke dalam dua kategori: menentukan dan akumulatif. Risiko menentukan mencakup potensi peristiwa mendadak dan bencana yang diakibatkan oleh kemunculan sistem AI superintelijen yang melampaui kecerdasan manusia, yang pada akhirnya dapat menyebabkan kepunahan manusia. Sebaliknya, risiko akumulatif muncul secara bertahap melalui serangkaian gangguan yang saling terkait yang dapat mengikis struktur dan ketahanan masyarakat seiring waktu, yang pada akhirnya menyebabkan kegagalan atau keruntuhan kritis.
Sulit atau mustahil untuk mengevaluasi secara andal apakah AI canggih bersifat berakal budi dan sejauh mana. Namun, jika mesin berakal budi diciptakan secara massal di masa depan, terlibat dalam jalur peradaban yang tanpa henti mengabaikan kesejahteraan mereka dapat menjadi bencana eksistensial.[50] Hal ini khususnya telah dibahas dalam konteks risiko penderitaan astronomis (juga disebut "risiko". [51]Lebih lanjut, dimungkinkan untuk merekayasa pikiran digital yang dapat merasakan lebih banyak kebahagiaan daripada manusia dengan sumber daya yang lebih sedikit, yang disebut "penerima manfaat super". Peluang semacam itu menimbulkan pertanyaan tentang bagaimana berbagi dunia dan "kerangka etika dan politik" mana yang akan memungkinkan koeksistensi yang saling menguntungkan antara pikiran biologis dan digital.[52]
AI juga dapat secara drastis meningkatkan masa depan umat manusia. Toby Ord menganggap risiko eksistensial sebagai alasan untuk "melanjutkan dengan hati-hati", bukan untuk meninggalkan AI. Max More menyebut AI sebagai "peluang eksistensial", menyoroti biaya yang harus ditanggung jika tidak dikembangkan.[53]
Menurut Bostrom, superintelijen dapat membantu mengurangi risiko eksistensial dari teknologi canggih lainnya seperti nanoteknologi molekuler atau biologi sintetis. Dengan demikian, dapat dibayangkan bahwa mengembangkan superintelijen sebelum teknologi berbahaya lainnya akan mengurangi risiko eksistensial secara keseluruhan.[54]