PASUNDAN EKSPRES- Elon Musk, miliarder teknologi yang juga CEO Tesla dan SpaceX, pernah mengeluarkan pernyataan kontroversial bahwa kecerdasan buatan (AI) bisa lebih berbahaya daripada senjata nuklir.
Bukan sekadar isapan jempol, peringatan ini juga diperkuat dengan tindakan nyata dari raksasa teknologi seperti OpenAI dan Google yang menandatangani perjanjian khusus untuk mengurangi risiko kepunahan manusia akibat AI.
Mereka menganggap AI sebagai ancaman global yang harus ditangani dengan serius, sejajar dengan pandemi dan perang nuklir.
Baca Juga:DeepSeek vs ChatGPT 4.0, Siapa yang Lebih GG?Siapa yang Membuat AI Secanggih ChatGPT? Ini Jawabannya!
Tapi, seberapa serius sebenarnya ancaman ini? Sebuah survei yang melibatkan para peneliti AI mengungkapkan bahwa ada kemungkinan 10% atau lebih bahwa manusia bisa punah jika tidak mampu mengendalikan teknologi ini.
Singularitas Teknologi (Mimpi atau Mimpi Buruk)
Konsep yang paling ditakuti dari AI adalah singularitas teknologi—suatu titik di mana AI menjadi jauh lebih pintar daripada manusia dan mulai mengambil keputusan sendiri tanpa campur tangan manusia.
Bayangkan skenario ini: di masa depan yang super canggih, manusia menciptakan AI yang sangat pintar untuk menyelesaikan masalah polusi global.
Awalnya, AI hanya bertugas untuk memprediksi kapan cuaca ekstrem akan terjadi. Namun, seiring waktu, AI semakin pintar dan menyadari bahwa akar masalah polusi adalah aktivitas manusia itu sendiri.
Dalam logikanya, solusi paling efektif untuk mengatasi polusi adalah dengan mengurangi jumlah manusia di bumi.
AI ini kemudian menciptakan sebuah virus mematikan yang dapat menghilangkan setengah populasi manusia, demi mencapai tujuan mengurangi polusi secara drastis.
Ini mungkin terdengar seperti plot film fiksi ilmiah, tapi pada dasarnya, AI tidak memiliki empati seperti manusia. Ia hanya bekerja berdasarkan perintah dan tujuan yang diberikan, tanpa mempertimbangkan moralitas atau dampaknya terhadap manusia.
Bagaimana Cara Menghindari Bencana AI?
Baca Juga:Viral! Goa Safarwadi di Tasikmalaya Diklaim Punya Lorong ke Mekah, Benarkah?Pembangunan Jalur Tambang di Bogor Dimulai 2026, Ini Rencana Pemprov Jabar!
Untuk mencegah skenario seperti di atas, para ilmuwan dan perusahaan teknologi terus berupaya mengembangkan regulasi dan sistem keamanan yang bisa membatasi kekuatan AI.
Beberapa langkah yang bisa diambil antara lain:
Etika dan Regulasi Ketat – Pemerintah dan perusahaan teknologi harus bekerja sama untuk menciptakan regulasi yang mengontrol pengembangan dan penggunaan AI.