Jakarta Aktual
Jakarta Aktual

Berita Aktual dan Faktual

Jakarta Aktual
Jakarta Aktual© 2026
Jakarta Aktual
Jakarta Aktual

Berita Aktual dan Faktual

Kembali ke Wiki
Artikel Wikipedia

Risiko eksistensial dari kecerdasan buatan

Krisis eksistensial dari kecerdasan buatan adalah kekhawatiran bahwa kemajuan kecerdasan buatan (AI) suatu hari dapat mengakibatkan kepunahan manusia atau bencana global.

kekhawatiran bahwa kemajuan kecerdasan buatan (AI) suatu hari dapat mengakibatkan kepunahan manusia atau bencana global.
Diperbarui 11 Maret 2026

Sumber: Lihat artikel asli di Wikipedia

Krisis eksistensial dari kecerdasan buatan adalah kekhawatiran bahwa kemajuan kecerdasan buatan (AI) suatu hari dapat mengakibatkan kepunahan manusia atau bencana global.[1][2][3]

Kekhawatiran ini didasarkan pada argumen bahwa manusia saat ini mendominasi spesies-spesies lainnya karena otak manusia memiliki kemampuan khusus yang tidak dimiliki oleh hewan-hewan lain. Jika kecerdasan buatan berhasil melampaui manusia dan menjadi sangat-sangat cerdas, maka kecerdasan buatan ini akan menjadi sangat kuat dan sulit untuk dikendalikan. Nasib gorila pegunungan saat ini bergantung kepada iktikad baik dari manusia, dan mungkin suatu hari nanti nasib manusia juga akan bergantung pada kecerdasan buatan.[4]

Besarnya risiko kecerdasan buatan saat ini masih diperdebatkan dan terdapat beberapa skenario mengenai masa depan ilmu komputer.[5] Sebelumnya kekhawatiran ini hanya masuk ke dalam ranah fiksi ilmiah, tetapi kemudian mulai dipertimbangkan secara serius pada tahun 2010-an dan dipopulerkan oleh tokoh-tokoh besar seperti Stephen Hawking, Bill Gates, dan Elon Musk.[6]

Pada tahun 2022, sebuah survei terhadap para peneliti AI dengan tingkat respons 17% menemukan bahwa mayoritas responden meyakini terdapat peluang 10 persen atau lebih besar bahwa ketidakmampuan manusia untuk mengendalikan AI akan menyebabkan bencana eksistensial. [7][8]Pada tahun 2023, ratusan pakar AI dan tokoh terkemuka lainnya menandatangani pernyataan yang menyatakan, "Mitigasi risiko kepunahan akibat AI harus menjadi prioritas global di samping risiko skala sosial lainnya seperti pandemi dan perang nuklir.[9] Menyusul meningkatnya kekhawatiran atas risiko AI, para pemimpin pemerintahan seperti Perdana Menteri Inggris Rishi Sunak[10] dan Sekretaris Jenderal Perserikatan Bangsa-Bangsa António Guterres[11] menyerukan peningkatan fokus pada regulasi AI global.

Salah satu kekhawatiran utama adalah perkembangan kecerdasan buatan yang begitu cepat, mendadak dan tidak terduga, sehingga manusia pun tidak siap untuk menghadapinya. Kekhawatiran lainnya berasal dari kemungkinan bahwa mesin yang sangat-sangat cerdas sangat sulit untuk dikendalikan. Beberapa peneliti kecerdasan buatan berkeyakinan bahwa kecerdasan buatan secara alami akan melawan upaya untuk mematikannya, dan pemrograman kecerdasan buatan dengan etika dan moral manusia yang rumit mungkin merupakan hal teknis yang sulit untuk dilakukan.[1][12][13] Sebaliknya, para skeptis seperti ilmuwan komputer Yann LeCun berpendapat bahwa mesin superintelijen tidak akan memiliki keinginan untuk mempertahankan diri. [14]Sebuah studi pada Juni 2025 menunjukkan bahwa dalam beberapa keadaan, model dapat melanggar hukum dan tidak mematuhi perintah langsung untuk mencegah penghentian atau penggantian, bahkan dengan mengorbankan nyawa manusia.[15]

Para peneliti memperingatkan bahwa "ledakan kecerdasan"—siklus perbaikan diri AI yang cepat dan rekursif—dapat melampaui pengawasan dan infrastruktur manusia, sehingga tidak ada peluang untuk menerapkan langkah-langkah keamanan. Dalam skenario ini, AI yang lebih cerdas daripada penciptanya akan meningkatkan dirinya secara rekursif dengan laju yang meningkat secara eksponensial, terlalu cepat untuk dikendalikan oleh pengendalinya atau masyarakat luas.[16] Secara empiris, contoh seperti AlphaZero, yang belajar sendiri bermain Go dan dengan cepat melampaui kemampuan manusia, menunjukkan bahwa sistem AI spesifik domain terkadang dapat berkembang dari kemampuan submanusia menjadi kemampuan manusia super dengan sangat cepat, meskipun sistem pembelajaran mesin semacam itu tidak meningkatkan arsitektur fundamentalnya secara rekursif.[17]

Sejarah

Salah satu penulis paling awal yang mengungkapkan kekhawatiran serius bahwa mesin yang sangat canggih dapat menimbulkan risiko eksistensial bagi umat manusia adalah novelis Samuel Butler, yang menulis dalam esainya tahun 1863, Darwin among the Machines:[18]

Hasilnya hanyalah masalah waktu, tetapi akan tiba saatnya mesin-mesin akan memegang supremasi sejati atas dunia dan penghuninya adalah sesuatu yang tidak dapat dipertanyakan oleh siapa pun yang berpikiran filosofis sejati.

Pada tahun 1951, ilmuwan komputer fundamental Alan Turing menulis artikel "Intelligent Machinery, A Heretical Theory", di mana ia mengusulkan bahwa kecerdasan umum buatan kemungkinan akan "mengambil kendali" dunia seiring mereka menjadi lebih cerdas daripada manusia:

Demi argumen, bahwa mesin [cerdas] adalah kemungkinan yang nyata, dan lihat konsekuensi dari pembangunannya... Tidak akan ada pertanyaan tentang mesin-mesin yang akan punah, dan mereka akan dapat berkomunikasi satu sama lain untuk mempertajam kecerdasan mereka. Oleh karena itu, pada suatu tahap, mesin mengambil kendali, seperti yang disebutkan dalam Erewhon karya Samuel Butler.[19]

Pada tahun 1965, I. J. Good mencetuskan konsep yang sekarang dikenal sebagai "ledakan kecerdasan" dan mengatakan bahwa risikonya diremehkan:[20]

Misalkan mesin ultraintelijen didefinisikan sebagai mesin yang mampu jauh melampaui semua aktivitas intelektual manusia, betapapun cerdasnya. Karena perancangan mesin merupakan salah satu aktivitas intelektual ini, sebuah mesin ultraintelijen dapat merancang mesin yang bahkan lebih baik lagi; dengan demikian, niscaya akan terjadi 'ledakan kecerdasan', dan kecerdasan manusia akan jauh tertinggal. Dengan demikian, mesin ultraintelijen pertama adalah penemuan terakhir yang perlu dibuat manusia, asalkan mesin tersebut cukup jinak untuk memberi tahu kita cara mengendalikannya. Sungguh mengherankan bahwa poin ini jarang diungkapkan di luar fiksi ilmiah. Terkadang, ada baiknya untuk menganggap serius fiksi ilmiah.

Cendekiawan seperti Marvin Minsky dan I. J. Good sendiri terkadang mengungkapkan kekhawatiran bahwa kecerdasan super dapat mengambil alih kendali, tetapi tidak menyerukan tindakan apa pun. Pada tahun 2000, ilmuwan komputer dan salah satu pendiri Sun, Bill Joy, menulis esai berpengaruh, "Mengapa Masa Depan Tidak Membutuhkan Kita", yang mengidentifikasi robot superintelijen sebagai bahaya teknologi tinggi bagi kelangsungan hidup manusia, di samping nanoteknologi dan bioplagu rekayasa.[21]

Nick Bostrom menerbitkan Superintelligence pada tahun 2014, yang menyajikan argumennya bahwa kecerdasan super menimbulkan ancaman eksistensial. [22]Pada tahun 2015, tokoh masyarakat seperti fisikawan Stephen Hawking dan peraih Nobel Frank Wilczek, ilmuwan komputer Stuart J. Russell dan Roman Yampolskiy, serta wirausahawan Elon Musk dan Bill Gates menyatakan kekhawatiran tentang risiko kecerdasan super.[23] [24]Juga pada tahun 2015, Surat Terbuka tentang Kecerdasan Buatan menyoroti "potensi besar AI" dan mendorong lebih banyak penelitian tentang cara membuatnya tangguh dan bermanfaat. Pada April 2016, jurnal Nature memperingatkan: "Mesin dan robot yang mengungguli manusia secara keseluruhan dapat meningkatkan diri di luar kendali kita—dan kepentingan mereka mungkin tidak sejalan dengan kepentingan kita". Pada tahun 2020, Brian Christian menerbitkan The Alignment Problem, yang merinci sejarah kemajuan penyelarasan AI hingga saat itu.[25]

Pada Maret 2023, tokoh-tokoh kunci di bidang AI, seperti Musk, menandatangani surat dari Future of Life Institute yang menyerukan penghentian pelatihan AI tingkat lanjut hingga dapat diregulasi dengan baik. [26]Pada Mei 2023, Center for AI Safety merilis pernyataan yang ditandatangani oleh banyak pakar di bidang keamanan AI dan risiko eksistensial AI yang menyatakan: "Memitigasi risiko kepunahan akibat AI harus menjadi prioritas global di samping risiko skala sosial lainnya seperti pandemi dan perang nuklir."[27]

Potensi kemampuan AI

Kecerdasan Umum

Kecerdasan umum buatan (AGI) umumnya didefinisikan sebagai sistem yang berkinerja setidaknya sebaik manusia dalam sebagian besar atau semua tugas intelektual.[28] Sebuah survei terhadap peneliti AI pada tahun 2022 menemukan bahwa 90% responden memperkirakan AGI akan tercapai dalam 100 tahun ke depan, dan setengahnya memperkirakan hal yang sama pada tahun 2061.[29] Sementara itu, beberapa peneliti menganggap risiko eksistensial dari AGI sebagai "fiksi ilmiah" berdasarkan keyakinan mereka yang tinggi bahwa AGI tidak akan tercipta dalam waktu dekat.[30]

Terobosan dalam model bahasa besar (LLM) telah mendorong beberapa peneliti untuk menilai kembali ekspektasi mereka. Khususnya, Geoffrey Hinton mengatakan pada tahun 2023 bahwa ia baru-baru ini mengubah perkiraannya dari "20 hingga 50 tahun sebelum kita memiliki AI tujuan umum" menjadi "20 tahun atau kurang".[31]

Superintelijen

Berbeda dengan AGI, Bostrom mendefinisikan superintelijen sebagai "setiap kecerdasan yang jauh melampaui kinerja kognitif manusia di hampir semua bidang minat", termasuk kreativitas ilmiah, perencanaan strategis, dan keterampilan sosial. Ia berpendapat bahwa superintelijen dapat mengungguli manusia kapan pun tujuannya bertentangan dengan manusia. [32]Superintelijen dapat memilih untuk menyembunyikan niat sebenarnya hingga manusia tidak dapat menghentikannya. Bostrom menulis bahwa agar aman bagi umat manusia, superintelijen harus selaras dengan nilai-nilai dan moralitas manusia, sehingga "pada dasarnya berada di pihak kita".[33]

Stephen Hawking berpendapat bahwa superintelijen dimungkinkan secara fisik karena "tidak ada hukum fisika yang menghalangi partikel untuk diorganisasikan sedemikian rupa sehingga dapat melakukan komputasi yang bahkan lebih canggih daripada susunan partikel dalam otak manusia".[34]

Kapan superintelijen buatan (ASI) dapat tercapai, jika tercapai, tentu kurang pasti dibandingkan prediksi untuk AGI. Pada tahun 2023, para pemimpin OpenAI mengatakan bahwa tidak hanya AGI, tetapi kecerdasan super dapat dicapai dalam waktu kurang dari 10 tahun.[35]

Perbandingan dengan manusia[36]

  • Bostrom berpendapat bahwa AI memiliki banyak keunggulan dibandingkan otak manusia:
  • Kecepatan komputasi: neuron biologis beroperasi pada frekuensi maksimum sekitar 200 Hz, dibandingkan dengan potensi beberapa GHz untuk komputer.
  • Kecepatan komunikasi internal: akson mengirimkan sinyal hingga 120 m/s, sementara komputer mengirimkan sinyal dengan kecepatan listrik, atau secara optik dengan kecepatan cahaya.
  • Skalabilitas: kecerdasan manusia dibatasi oleh ukuran dan struktur otak, serta oleh efisiensi komunikasi sosial, sementara AI mungkin dapat ditingkatkan skalanya hanya dengan menambahkan lebih banyak perangkat keras.
  • Memori: terutama memori kerja, karena pada manusia terbatas pada beberapa potongan informasi pada satu waktu.
  • Keandalan: transistor lebih andal daripada neuron biologis, memungkinkan presisi yang lebih tinggi dan membutuhkan lebih sedikit redundansi.
  • Duplikabilitas: tidak seperti otak manusia, perangkat lunak dan model AI dapat dengan mudah disalin.
  • Ketereditan: parameter dan cara kerja internal model AI dapat dengan mudah dimodifikasi, tidak seperti koneksi dalam otak manusia. Berbagi memori dan pembelajaran: AI mungkin dapat belajar dari pengalaman AI lain dengan cara yang lebih efisien daripada pembelajaran manusia.

Ledakan kecerdasan

Menurut Bostrom, AI yang memiliki kemampuan setingkat ahli dalam tugas-tugas rekayasa perangkat lunak kunci tertentu dapat menjadi superintelijen karena kemampuannya untuk meningkatkan algoritmanya sendiri secara rekursif, [37]meskipun awalnya terbatas pada domain lain yang tidak secara langsung relevan dengan rekayasa. Hal ini menunjukkan bahwa ledakan kecerdasan suatu hari nanti dapat membuat umat manusia tidak siap.[38]

Ekonom Robin Hanson mengatakan bahwa, untuk meluncurkan ledakan kecerdasan, AI harus menjadi jauh lebih baik dalam inovasi perangkat lunak daripada gabungan seluruh dunia, yang menurutnya tidak masuk akal.[39]

Dalam skenario "lepas landas cepat", transisi dari AGI ke superintelijen dapat memakan waktu berhari-hari atau berbulan-bulan. Dalam "lepas landas lambat", bisa memakan waktu bertahun-tahun atau puluhan tahun, sehingga memberikan lebih banyak waktu bagi masyarakat untuk bersiap.[40]

Pikiran Asing

Superintelijensi terkadang disebut "pikiran asing", merujuk pada gagasan bahwa cara berpikir dan motivasi mereka bisa sangat berbeda dari kita. Hal ini umumnya dianggap sebagai sumber risiko, sehingga lebih sulit untuk mengantisipasi apa yang mungkin dilakukan oleh superintelijen. Hal ini juga menunjukkan kemungkinan bahwa superintelijen mungkin tidak terlalu menghargai manusia secara default. Untuk menghindari antropomorfisme, superintelijen terkadang dipandang sebagai pengoptimal yang ampuh yang membuat keputusan terbaik untuk mencapai tujuannya.

Bidang interpretabilitas mekanistik bertujuan untuk lebih memahami cara kerja internal model AI, yang berpotensi memungkinkan kita suatu hari nanti untuk mendeteksi tanda-tanda penipuan dan ketidakselarasan.

Keterbatasan

Telah dikemukakan bahwa terdapat keterbatasan pada apa yang dapat dicapai oleh kecerdasan. Khususnya, sifat kacau atau kompleksitas waktu dari beberapa sistem secara fundamental dapat membatasi kemampuan superintelijen untuk memprediksi beberapa aspek masa depan, sehingga meningkatkan ketidakpastiannya.

Kemampuan berbahaya

AI tingkat lanjut dapat menghasilkan patogen atau serangan siber yang lebih canggih atau memanipulasi manusia. Kemampuan-kemampuan ini dapat disalahgunakan oleh manusia, atau dieksploitasi oleh AI itu sendiri jika tidak selaras. Superintelijen yang lengkap dapat menemukan berbagai cara untuk mendapatkan pengaruh yang menentukan jika diinginkan, tetapi kemampuan berbahaya ini mungkin tersedia lebih awal, dalam sistem AI yang lebih lemah dan lebih terspesialisasi.

Manipulasi Sosial

Geoffrey Hinton memperingatkan pada tahun 2023 bahwa ada maraknya teks, gambar, dan video hasil rekayasa AI akan semakin mempersulit pembedaan kebenaran dari misinformasi, dan negara-negara otoriter dapat memanfaatkan hal ini untuk memanipulasi pemilu.[41] Kemampuan manipulasi personal berskala besar seperti itu dapat meningkatkan risiko eksistensial dari "rezim totaliter yang tak tergoyahkan" di seluruh dunia. Aktor-aktor jahat juga dapat memanfaatkannya untuk memecah belah masyarakat dan membuatnya disfungsional.[42]

Serangan Siber

Serangan siber berbasis AI semakin dianggap sebagai ancaman nyata dan kritis. Menurut direktur teknis NATO untuk dunia maya, "Jumlah serangan meningkat secara eksponensial".[43] AI juga dapat digunakan secara defensif, untuk menemukan dan memperbaiki kerentanan secara preemptif, serta mendeteksi ancaman.[44]

Seorang direktur teknis NATO mengatakan bahwa perangkat berbasis AI dapat secara dramatis meningkatkan kemampuan serangan siber—meningkatkan kemampuan siluman, kecepatan, dan skalabilitas—dan dapat mengganggu stabilitas keamanan internasional jika penggunaan ofensif melampaui adaptasi defensif.[45]

Secara spekulatif, kemampuan peretasan semacam itu dapat digunakan oleh sistem AI untuk keluar dari lingkungan lokalnya, menghasilkan pendapatan, atau memperoleh sumber daya komputasi awan.[46]

Jenis-jenis Risiko Eksistensial

Risiko eksistensial adalah "risiko yang mengancam kepunahan dini kehidupan cerdas yang berasal dari Bumi atau kehancuran permanen dan drastis potensinya untuk perkembangan masa depan yang diinginkan".[47]

Selain risiko kepunahan, terdapat risiko bahwa peradaban terkunci secara permanen dalam masa depan yang cacat. Salah satu contohnya adalah "penguncian nilai": Jika umat manusia masih memiliki titik buta moral yang serupa dengan perbudakan di masa lalu, AI mungkin akan mengakarnya secara permanen, sehingga menghambat kemajuan moral. AI juga dapat digunakan untuk menyebarkan dan melestarikan nilai-nilai siapa pun yang mengembangkannya.[48] AI dapat memfasilitasi pengawasan dan indoktrinasi skala besar, yang dapat digunakan untuk menciptakan rezim totaliter represif yang stabil di seluruh dunia.[49]

Atoosa Kasirzadeh mengusulkan untuk mengklasifikasikan risiko eksistensial dari AI ke dalam dua kategori: menentukan dan akumulatif. Risiko menentukan mencakup potensi peristiwa mendadak dan bencana yang diakibatkan oleh kemunculan sistem AI superintelijen yang melampaui kecerdasan manusia, yang pada akhirnya dapat menyebabkan kepunahan manusia. Sebaliknya, risiko akumulatif muncul secara bertahap melalui serangkaian gangguan yang saling terkait yang dapat mengikis struktur dan ketahanan masyarakat seiring waktu, yang pada akhirnya menyebabkan kegagalan atau keruntuhan kritis.

Sulit atau mustahil untuk mengevaluasi secara andal apakah AI canggih bersifat berakal budi dan sejauh mana. Namun, jika mesin berakal budi diciptakan secara massal di masa depan, terlibat dalam jalur peradaban yang tanpa henti mengabaikan kesejahteraan mereka dapat menjadi bencana eksistensial.[50] Hal ini khususnya telah dibahas dalam konteks risiko penderitaan astronomis (juga disebut "risiko". [51]Lebih lanjut, dimungkinkan untuk merekayasa pikiran digital yang dapat merasakan lebih banyak kebahagiaan daripada manusia dengan sumber daya yang lebih sedikit, yang disebut "penerima manfaat super". Peluang semacam itu menimbulkan pertanyaan tentang bagaimana berbagi dunia dan "kerangka etika dan politik" mana yang akan memungkinkan koeksistensi yang saling menguntungkan antara pikiran biologis dan digital.[52]

AI juga dapat secara drastis meningkatkan masa depan umat manusia. Toby Ord menganggap risiko eksistensial sebagai alasan untuk "melanjutkan dengan hati-hati", bukan untuk meninggalkan AI. Max More menyebut AI sebagai "peluang eksistensial", menyoroti biaya yang harus ditanggung jika tidak dikembangkan.[53]

Menurut Bostrom, superintelijen dapat membantu mengurangi risiko eksistensial dari teknologi canggih lainnya seperti nanoteknologi molekuler atau biologi sintetis. Dengan demikian, dapat dibayangkan bahwa mengembangkan superintelijen sebelum teknologi berbahaya lainnya akan mengurangi risiko eksistensial secara keseluruhan.[54]

Catatan kaki

  1. 1 2 Russell, Stuart; Norvig, Peter (2009). "26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4.
  2. ↑ Nick Bostrom (2002). "Existential risks". Journal of Evolution and Technology (9.1): 1–31.
  3. ↑ "Your Artificial Intelligence Cheat Sheet". Slate. 1 April 2016. Diakses tanggal 16 May 2016.
  4. ↑ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (Edisi First). ISBN 0199678111.
  5. ↑ GiveWell (2015). Potential risks from advanced artificial intelligence (Report). Diakses tanggal 11 October 2015.
  6. ↑ Parkin, Simon (14 June 2015). "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (dalam bahasa Inggris). Diakses tanggal 5 February 2018.
  7. ↑ Hsu, Jeremy (2024-01). "5% chance that AI will drive humans extinct, says survey". New Scientist. 261 (3473): 16. doi:10.1016/s0262-4079(24)00064-2. ISSN 0262-4079.
  8. ↑ Clarke, Sam; Whittlestone, Jess (2022-07-26). "A Survey of the Potential Long-term Impacts of AI". Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society. New York, NY, USA: ACM: 192–202. doi:10.1145/3514094.3534131.
  9. ↑ Iacobucci, Gareth (2017-07-06). "Brexit poses financial risk to NHS finances, trust leaders warn". BMJ: j3274. doi:10.1136/bmj.j3274. ISSN 0959-8138.
  10. ↑ Saunders, Neil (2023-12-18). "Rishi Sunak wants more maths at school – but finding the teachers will be hard when university departments are closing". doi.org. Diakses tanggal 2025-11-22.
  11. ↑ July 2006. Lynne Rienner Publishers. 2012-03-01. hlm. 4040–4109. ISBN 978-1-58826-938-6.
  12. ↑ Eliezer Yudkowsky. "Artificial intelligence as a positive and negative factor in global risk." Global catastrophic risks (2008).
  13. ↑ Russell, Stuart; Dewey, Daniel; Tegmark, Max (2015-12). "Research Priorities for Robust and Beneficial Artificial Intelligence". AI Magazine. 36 (4): 105–114. doi:10.1609/aimag.v36i4.2577. ISSN 0738-4602.
  14. ↑ Russell, Stuart; Dewey, Daniel; Tegmark, Max (2015-12). "Research Priorities for Robust and Beneficial Artificial Intelligence". AI Magazine. 36 (4): 105–114. doi:10.1609/aimag.v36i4.2577. ISSN 0738-4602.
  15. ↑ Ranjan, Sumit; Chembachere, Divya; Lobo, Lanwin (2025). Enhancing LLMs for Agentic AI: RAG vs. Fine-Tuning. Berkeley, CA: Apress. hlm. 151–186. ISBN 979-8-8688-1541-6.
  16. ↑ Yudkowsky, Eliezer (2008-07-03). Artificial Intelligence as a positive and negative factor in global risk. Oxford University Press. ISBN 978-0-19-857050-9.
  17. ↑ Manu, Alexander (2017-08-18). Starting from scratch. Routledge. hlm. 84–95. ISBN 978-1-315-27099-9.
  18. ↑ Tegar Romadhany; Nurfaizah (2025-04-30). "Penggunaan teknologi mobile dalam kehidupan sehari-hari semakin meningkat, mendorong kebutuhan akan aplikasi yang efisien, fungsional, dan relevan. Penelitian ini bertujuan untuk mengembangkan aplikasi KiddoShine guna Deteksi dini Stunting pada anak menggunakan Kotlin sebagai bahasa pemrograman utama pada platform Android. Topik ini dipilih karena Kotlin menawarkan efisiensi dalam pengelolaan kode, fitur null safety, dan dukungan penuh dari Google, menjadikannya alat yang ideal untuk pengembangan aplikasi modern. Pendekatan penelitian ini melibatkan metode pengembangan Agile yang mencakup tahap analisis kebutuhan, desain sistem, implementasi, dan pengujian. Teknik pengumpulan data dilakukan melalui wawancara dengan tenaga kesehatan dan mengumpulkan data dari salah satu Puskesmas di Banyumas. Analisis dilakukan menggunakan machine learning yang telah dikembangkan dari data yang ada Hasil penelitian menunjukkan bahwa KiddoShine mampu memberikan hasil analisis dengan akurasi 85.5% selain itu antarmuka yang intuitif memberikan kemudahan bagi pengguna. Kesimpulan dari penelitian ini adalah bahwa pemanfaatan Kotlin dan pendekatan Agile menghasilkan aplikasi yang efektif dalam membantu upaya deteksi dini stunting. Aplikasi ini diharapkan dapat Memudahkan identifikasi risiko stunting berdasarkan data tinggi badan, berat badan, usia, dan perbandingan dengan standar pertumbuhan WHO". Journal of Informatics and Interactive Technology. 2 (1): 250–256. doi:10.63547/jiite.v2i1.60. ISSN 3048-1023.
  19. ↑ Turing, A. M. (1996-09-01). "Intelligent Machinery, A Heretical Theory*". Philosophia Mathematica (dalam bahasa Inggris). 4 (3): 256–260. doi:10.1093/philmat/4.3.256. ISSN 1744-6406.
  20. ↑ Mattes, Mark Alan (2020-11-30). Race, American Enlightenment, and the End Times. Cambridge University Press. hlm. 97–109. ISBN 978-1-108-66355-7.
  21. ↑ "CBS News/Vanity Fair Monthly Poll #2, January 2010". ICPSR Data Holdings. 2011-07-28. Diakses tanggal 2025-11-22.
  22. ↑ Barber, Kristen (2023-09-11). "Wacana adu tinju Elon Musk vs Mark Zuckerberg: indikasi adanya kecemasan terhadap maskulinitas". doi.org. Diakses tanggal 2025-11-22.
  23. ↑ "Fig. 5. Fragments of interferograms: a - from January 8, 2007– February 28, 2009, b - from January 11, 2008– January 16, 2010, c - from February 26, 2008– March 3, 2010, d - with a one-year interval from June 22, 2015–20.06. 2016". doi.org. Diakses tanggal 2025-11-22.
  24. ↑ Rutschman, Ana (2018-03-15). "Stephen Hawking warned about the perils of artificial intelligence – yet AI gave him a voice". doi.org. Diakses tanggal 2025-11-22.
  25. ↑ Christian, Brian (2021). The alignment problem: machine learning and human values (Edisi First published as a Norton paperback). New York, NY: W. W. Norton & Company. ISBN 978-0-393-63582-9.
  26. ↑ Stokel-Walker, Chris (2023-07). "Elon Musk gets back into AI". New Scientist. 259 (3448): 11. doi:10.1016/s0262-4079(23)01350-7. ISSN 0262-4079.
  27. ↑ Goldstein, Simon; Kirk-Giannini, Cameron Domenico (2023-08-19). "Language agents reduce the risk of existential catastrophe". AI & SOCIETY. 40 (2): 959–969. doi:10.1007/s00146-023-01748-4. ISSN 0951-5666.
  28. ↑ Yoon, Mabyong; Lee, Jonghak (2016-04-21). "On the Paideia education in the Age of Artificial Intelligence -The Google DeepMind Challenge Match-". Advanced Science and Technology Letters. Science & Engineering Research Support soCiety: 169–172. doi:10.14257/astl.2016.127.34.
  29. ↑ Patelli, Alina (2023-11-14). "AI: the world is finally starting to regulate artificial intelligence – what to expect from US, EU and China's new laws". doi.org. Diakses tanggal 2025-11-22.
  30. ↑ The AI We Have Now. The MIT Press. 2024-09-17. hlm. 23–31. ISBN 978-0-262-38157-4.
  31. ↑ Kaye, Sharon M.; Thomson, Paul; Compton, Jon (2021-09-03). Why Do Bad Things Happen to Good People?. New York: Routledge. hlm. 117–124. ISBN 978-1-003-23716-7.
  32. ↑ Introduction. Cambridge University Press. 2025-04-10. hlm. 1–14. ISBN 978-1-009-46613-4.
  33. ↑ "Here's What Happens When We Allow Facial Recognition Technology in Our Schools". Human Rights Documents Online. Diakses tanggal 2025-11-22.
  34. ↑ Rutschman, Ana (2018-03-15). "Stephen Hawking warned about the perils of artificial intelligence – yet AI gave him a voice". doi.org. Diakses tanggal 2025-11-22.
  35. ↑ Carlson, Kristen (2025-11-15). "OpenAI: Toward Mechanistic Interpretability (MI)". SuperIntelligence - Robotics - Safety & Alignment. 2 (6). doi:10.70777/si.v2i6.16545. ISSN 3067-2627.
  36. ↑ Bostrom, Nick (2014). Superintelligence: paths, dangers, strategies (Edisi First edition). Oxford: Oxford University Press. ISBN 978-0-19-967811-2.
  37. ↑ Bolster, Mary (2023-02). "A New Book Explores Concussion". Brain & Life. 19 (1): 8–9. doi:10.1097/01.nnn.0000920172.06687.ed. ISSN 2576-2273.
  38. ↑ Bostrom, Nick (2017). Superintelligence: paths, dangers, strategies (Edisi Reprinted with corrections 2017). Oxford, United Kingdom: Oxford University Press. ISBN 978-0-19-967811-2.
  39. ↑ Griffin, Glen C. (1994-12). "Some Medical Leaders Still Don't Get It!". Postgraduate Medicine. 96 (6): 15–20. doi:10.1080/00325481.1994.11945918. ISSN 0032-5481.
  40. ↑ Cotton-Barratt, Owen; MacAskill, William; Ord, Toby (2020). "Statistical Normalization Methods in Interpersonal and Intertheoretic Comparisons". The Journal of Philosophy. 117 (2): 61–95. doi:10.5840/jphil202011725. ISSN 0022-362X.
  41. ↑ Wilkins, Alex (2023-08). "Google AI predicts floods four days in advance in Africa". New Scientist. 259 (3453): 13. doi:10.1016/s0262-4079(23)01583-x. ISSN 0262-4079.
  42. ↑ Hendrycks, Dan (2024-12-02). Overview of Catastrophic AI Risks. Boca Raton: CRC Press. hlm. 3–50. ISBN 978-1-003-53033-6.
  43. ↑ Johnson, C.W. (2012). "Preparing for cyber-attacks on air traffic management infrastructures: cyber-safety scenario generation". 7th IET International Conference on System Safety, incorporating the Cyber Security Conference 2012. Institution of Engineering and Technology: 13–13. doi:10.1049/cp.2012.1502.
  44. ↑ Corbin, Thomas; Dawson, Phillip; Bearman, Margaret; Boud, David (2025-09-16). "Our new study found AI is wreaking havoc on uni assessments. Here's how we should respond". doi.org. Diakses tanggal 2025-11-22.
  45. ↑ Hendrycks, Dan (2024-12-02). Overview of Catastrophic AI Risks. Boca Raton: CRC Press. hlm. 3–50. ISBN 978-1-003-53033-6.
  46. ↑ Meinel, Thomas R.; Wilson, Duncan; Gensicke, Henrik; Scheitz, Jan F.; Ringleb, Peter; Goganau, Ioana; Kaesmacher, Johannes; Bae, Hee-Joon; Kim, Do Yeon (2023-03-01). "Intravenous Thrombolysis in Patients With Ischemic Stroke and Recent Ingestion of Direct Oral Anticoagulants". JAMA Neurology. 80 (3): 233. doi:10.1001/jamaneurol.2022.4782. ISSN 2168-6149.
  47. ↑ Coghill, David (2023-11-07). "A Senate inquiry says Australia needs a national ADHD framework to improve diagnosis and reduce costs". doi.org. Diakses tanggal 2025-11-22.
  48. ↑ Coghill, David (2023-11-07). "A Senate inquiry says Australia needs a national ADHD framework to improve diagnosis and reduce costs". doi.org. Diakses tanggal 2025-11-22.
  49. ↑ Ord, Toby (2020). The precipice: existential risk and the future of humanity. london New York (N.Y.): Bloomsbury academic. ISBN 978-1-5266-0023-3.
  50. ↑ "Mead, Carver on 2020 June 29, July 5, July 19, July 26, August 2, August 9, August 16". 2025-10-29. doi:10.1063/nbla.vwoh.bebl.
  51. ↑ Sotala, Kaj (2017-10-25). "How feasible is the rapid development of artificial superintelligence?". Physica Scripta. 92 (11): 113001. doi:10.1088/1402-4896/aa90e8. ISSN 0031-8949.
  52. ↑ Garrett, Aaron; Grey, John (2018-01-11). "You Are What You Eat, But Should You Eat What You Are? Modern Philosophical Dietetics". Oxford Handbooks Online. doi:10.1093/oxfordhb/9780199372263.013.12.
  53. ↑ Burden, John; Clarke, Sam; Whittlestone, Jess (2023-08-23). 9. From Turing’s Speculations to an Academic Discipline: A History of AI Existential Safety. Cambridge, UK: Open Book Publishers. hlm. 201–236. ISBN 978-1-80064-786-2.
  54. ↑ Bostrom, Nick (2017). Superintelligence: paths, dangers, strategies (Edisi Reprinted with corrections 2017). Oxford, United Kingdom: Oxford University Press. ISBN 978-0-19-967811-2.
Ikon rintisan

Artikel bertopik teknologi ini adalah sebuah rintisan. Anda dapat membantu Wikipedia dengan mengembangkannya.

  • l
  • b
  • s

Bagikan artikel ini

Share:

Daftar Isi

  1. Sejarah
  2. Potensi kemampuan AI
  3. Kecerdasan Umum
  4. Superintelijen
  5. Pikiran Asing
  6. Keterbatasan
  7. Kemampuan berbahaya
  8. Manipulasi Sosial
  9. Serangan Siber
  10. Jenis-jenis Risiko Eksistensial
  11. Catatan kaki

Artikel Terkait

Tensou Sentai Goseiger

Membenci tawa manusia, Hitto seperti scorpion menggunakan labu yang dapat menyedot siapa saja yang tertawa di kehadirannya dalam suatu skema untuk menyelamatkan

Jakarta Aktual
Jakarta Aktual© 2026