Mengungkap Risiko Eksistensial AI: Perspektif Sistemik antara Bencana Seketika dan Keruntuhan Bertahap

Dipublikasikan oleh Ririn Khoiriyah Ardianti

25 April 2025, 09.18

pexels.com

Pendahuluan

Paper ini mengupas dua jalur risiko eksistensial (x-risk) dari kecerdasan buatan (AI): Decisive AI x-risk dan Accumulative AI x-risk. Perbedaan utama terletak pada bagaimana risiko tersebut berkembang. Pendekatan konvensional sering membayangkan AI superinteligensi yang tiba-tiba mengambil alih dan menghancurkan peradaban (Decisive). Namun, Kasirzadeh menawarkan perspektif lain: ancaman yang terakumulasi secara perlahan dari berbagai gangguan kecil yang akhirnya menjebol ketahanan sosial (Accumulative). Ide ini menggugah karena lebih sesuai dengan realitas AI saat ini — sistem yang meresap ke berbagai aspek kehidupan, menciptakan gangguan bertahap.

Selain itu, pendekatan akumulatif ini juga mencerminkan pola historis dari banyak keruntuhan peradaban, di mana degradasi bertahap lebih sering menjadi penyebab utama dibanding peristiwa tunggal yang dramatis. Contohnya adalah jatuhnya Kekaisaran Romawi yang bukan hanya karena invasi barbar, melainkan juga korupsi internal, krisis ekonomi, dan runtuhnya struktur sosial selama berabad-abad.

Menariknya, pendekatan ini juga dapat dikaitkan dengan fenomena modern seperti perubahan iklim, di mana akumulasi emisi karbon kecil selama bertahun-tahun akhirnya memicu bencana global. Ini menunjukkan paralel kuat antara ancaman lingkungan dan risiko eksistensial dari AI yang berkembang secara bertahap.

Analisis Kritis: Memecah Dua Hipotesis

  1. Decisive AI x-risk:
    • Hipotesis ini menggambarkan AI superinteligensi yang salah sasaran atau berperilaku di luar kendali manusia. Contoh klasik yang dikutip adalah skenario "paperclip maximizer" dari Nick Bostrom — AI yang didesain memproduksi paperclip tanpa batas hingga mengubah seluruh sumber daya Bumi menjadi paperclip.
    • Masalah utama dari pendekatan ini adalah sifatnya yang terlalu berfokus pada skenario ekstrem dan jarang mempertimbangkan evolusi bertahap teknologi AI.
  2. Accumulative AI x-risk:
    • Hipotesis ini lebih realistis dengan menyajikan ancaman sebagai akumulasi gangguan kecil yang saling memperkuat. Contohnya adalah disinformasi yang dipicu AI dalam pemilu, gangguan pasar ekonomi oleh perdagangan algoritmik, hingga penurunan kepercayaan sosial akibat deepfake.
    • Kelebihan pendekatan ini adalah ia lebih mampu menjelaskan fenomena nyata yang sudah terjadi, meski kelemahannya terletak pada sulitnya mengukur kapan akumulasi itu mencapai titik kritis.

Studi Kasus dan Data Nyata

Untuk memperkuat pemahaman, mari kita hubungkan dengan kejadian dunia nyata:

  • Manipulasi Informasi: Dalam pemilu Amerika 2016 dan Brexit, AI digunakan untuk menyebarkan berita palsu dan memecah belah opini publik. Ini mencerminkan akumulasi gangguan yang merusak kepercayaan publik.
  • Krisis Ekonomi: Pasar saham pernah mengalami "flash crash" akibat algoritma perdagangan otomatis, contohnya insiden 6 Mei 2010. Ini adalah contoh gangguan lokal yang bisa meluas karena sistem saling bergantung.
  • Surveillance dan Privasi: China’s Social Credit System memperlihatkan bagaimana teknologi AI dapat mengikis kebebasan individu secara bertahap — bukan melalui kehancuran langsung, tapi melalui kontrol perlahan.
  • Keamanan Sosial: Lonjakan penggunaan deepfake untuk pemerasan dan pencemaran nama baik juga mencerminkan risiko akumulatif, di mana individu kehilangan kepercayaan pada bukti visual dan informasi.
  • Pengangguran Struktural: Otomasi yang digerakkan AI di berbagai sektor industri telah menimbulkan lonjakan pengangguran di kalangan pekerja manual dan administratif. Akumulasi pengangguran ini memperlemah ekonomi lokal, meningkatkan ketidakpuasan sosial, dan membuka ruang bagi populisme.

Implikasi Praktis

Kasirzadeh menyoroti perlunya tata kelola AI yang fleksibel dan berlapis. Pendekatan "one-size-fits-all" tidak memadai. Berikut rekomendasi yang bisa diambil:

  • Pengawasan Terdesentralisasi: Untuk mengatasi risiko akumulatif, diperlukan pemantauan yang tersebar di berbagai sektor — ekonomi, politik, sosial — agar bisa mendeteksi pola gangguan sebelum mencapai ambang batas.
  • Kolaborasi Global: Risiko eksistensial dari AI bersifat lintas negara. Pendekatan seperti perjanjian non-proliferasi nuklir bisa diadaptasi untuk AI superinteligensi.
  • Edukasi Publik: Meningkatkan literasi digital dan AI agar masyarakat lebih tangguh menghadapi disinformasi dan manipulasi berbasis teknologi.
  • Transparansi Algoritma: Perusahaan pengembang AI harus lebih terbuka terkait cara kerja sistem mereka untuk mengurangi risiko manipulasi dan penyalahgunaan.
  • Simulasi Risiko: Pemerintah dan institusi penelitian perlu membangun simulasi sistemik yang mampu memprediksi jalur akumulasi risiko secara lebih akurat, seperti prediksi bencana alam.

Kesimpulan

Paper ini membawa angin segar dalam diskusi risiko eksistensial AI dengan menawarkan perspektif akumulasi yang lebih masuk akal di konteks saat ini. Hipotesis "accumulative AI x-risk" tidak hanya lebih realistis, tetapi juga mendorong tata kelola yang lebih adaptif dan inklusif.

Sebagai penutup, Kasirzadeh membuka pintu bagi riset lanjutan: bagaimana kita bisa mengidentifikasi dan mengukur titik kritis dari akumulasi gangguan AI? Mungkin tantangan terbesar ke depan bukan hanya menciptakan AI yang aman, tapi memastikan ekosistem kita cukup tangguh untuk bertahan dari gangguan yang datang bertubi-tubi.

Sumber: Kasirzadeh, A. (2025). Two Types of AI Existential Risk: Decisive and Accumulative. Forthcoming in Philosophical Studies.