Dunia Penerbangan

Penelitian Ini Mengungkap Rahasia di Balik Insiden Penerbangan – dan Ini yang Harus Anda Ketahui Tentang 'Penerjemah Pikiran' AI

Dipublikasikan oleh Hansel pada 30 Oktober 2025


Langit kita sedang berada di bawah tekanan besar. Pertumbuhan lalu lintas udara yang telah diprediksi selama bertahun-tahun kini berada di depan mata, diperparah oleh tantangan yang jauh lebih kompleks: integrasi Unmanned Aircraft System (UAS), atau drone, ke dalam koridor udara yang sudah padat.1 Dalam satu unit volume ruang udara yang sama, jumlah informasi yang harus diproses oleh manajemen lalu lintas drone (UTM) "jauh lebih tinggi" daripada manajemen lalu lintas udara (ATM) konvensional.1

Sistem saat ini, yang masih sangat bergantung pada operator manusia, secara teknis tidak akan mampu mengatasi lonjakan data dan kompleksitas ini. Solusi yang paling logis, yang telah dikembangkan selama bertahun-tahun, adalah Artificial Intelligence (AI). Sistem AI yang sangat otomatis terbukti mampu mendeteksi pola, mengidentifikasi anomali, dan menyelesaikan konflik penerbangan secara optimal.1

Namun, di sinilah letak paradoks utamanya. Dalam dunia penerbangan yang sangat mengutamakan keselamatan, AI memiliki satu kelemahan fatal: ia adalah "kotak hitam" (black box).1 Ini bukan sekadar masalah teknis kecil; ini adalah penghalang fundamental yang mempertaruhkan kepercayaan dan, pada akhirnya, keselamatan. Sebuah penelitian terobosan dari para peneliti di RMIT University kini menawarkan solusi nyata, tidak hanya untuk membuat AI lebih pintar, tetapi untuk membuatnya dapat dipercaya.

 

Mengapa 'Kotak Hitam' di Menara Kontrol Adalah Bencana yang Menunggu

Bayangkan Anda adalah seorang operator pemandu lalu lintas udara (ATCO) yang bertanggung jawab atas lusinan pesawat di layar Anda. Badai mendekat. Tiba-tiba, sebuah sistem AI baru menyarankan Anda untuk mengubah rute tiga pesawat secara drastis—sebuah manuver yang tampaknya tidak logis. Anda bertanya, "Mengapa?" Sistem itu hanya diam. Ia tidak bisa menjelaskan.

Inilah masalah "opaqueness" (kegelapan) dan "inexplicability" (ketidakterjelasan) yang melanda sebagian besar algoritma cerdas saat ini.1 Penelitian ini menyoroti bahwa masalah terbesar AI di menara kontrol bukanlah teknis, melainkan psikologis.

Para peneliti mengidentifikasi bahwa operator manusia yang berpengalaman "cenderung enggan mengadopsi" solusi yang disarankan dari sistem otonom jika solusi tersebut tidak "dapat dipercaya (trustworthy), dapat dilacak (traceable), dan dapat diinterpretasikan (interpretable)".1

Perilaku black box ini—di mana sistem "hanya menyajikan solusi akhir... tanpa menunjukkan penalaran (rationale) di baliknya"—secara langsung "menantang kemampuan manusia untuk memverifikasi" solusi tersebut.1 Dalam skenario terbaik, ini memperlambat pengambilan keputusan. Dalam skenario terburuk, operator bisa kehilangan kesadaran situasional (situation awareness) total, yang berpotensi fatal.1

Namun, masalah ini jauh melampaui preferensi operator. Verifikasi keputusan AI sangat "krusial... untuk operasi yang sangat penting bagi keselamatan (safety-critical operations)".1 Ini mengisyaratkan sebuah kenyataan yang lebih besar: otoritas sertifikasi penerbangan global tidak akan pernah menyetujui sistem otonom penuh yang tidak dapat menjelaskan mengapa ia mengambil keputusan kritis.

Oleh karena itu, eXplainable AI (XAI)—AI yang dapat menjelaskan cara berpikirnya—bukanlah sebuah "tambahan yang bagus". Ini adalah prasyarat fundamental, sebuah tiket masuk yang mutlak diperlukan, untuk adopsi AI yang aman dalam manajemen lalu lintas udara di masa depan.

 

Membedah 'Penerjemah Pikiran' untuk AI Penerbangan

Menyadari bahwa kepercayaan adalah mata uang utama dalam penerbangan, para peneliti di RMIT University tidak hanya mengidentifikasi masalah, tetapi juga merancang "solusi nyata" (viable solution).1 Mereka membangun sebuah kerangka kerja yang mengintegrasikan AI prediktif dengan "penerjemah pikiran" XAI untuk menjembatani kesenjangan kepercayaan tersebut.

Arsitektur sistem mereka dapat dijelaskan dalam dua bagian:

1. Sang "Peramal": XGBoost

Para peneliti memilih untuk tidak menggunakan model AI yang sederhana. Sebaliknya, mereka memilih XGBoost, sebuah algoritma gradient-boost decision tree yang sangat kuat dan canggih.1 Ini adalah pilihan yang disengaja. XGBoost dikenal memiliki akurasi prediksi yang tinggi dan sangat unggul dalam memproses data non-linear yang kompleks (seperti data cuaca yang kacau).1 Namun, ia juga terkenal sebagai black box yang rumit. Para peneliti secara efektif memilih model dengan performa terbaik, dan kemudian secara sengaja menciptakan tantangan black box untuk mereka pecahkan. Ini adalah pernyataan penting: bahwa ATM masa depan tidak perlu memilih antara performa (akurasi) dan interpretasi (kepercayaan). Kita bisa mendapatkan keduanya.

2. Sang "Penerjemah": LIME dan SHAP

Untuk membedah black box XGBoost, tim peneliti menggunakan tidak hanya satu, tetapi dua model penjelasan post-hoc (penjelasan yang dibuat setelah fakta) yang canggih: LIME dan SHAP.1 Ini adalah langkah metodologis yang krusial, mirip dengan melakukan audit ganda pada sistem.

Para peneliti menggunakan kedua pendekatan ini untuk melakukan "triangulasi kebenaran" atas penjelasan AI. Model pertama, LIME (Local Interpretable Model-Agnostic Explanations), bertindak seperti auditor eksternal. Ia tidak perlu tahu cara kerja internal AI yang rumit; ia hanya mengutak-atik data input (misalnya, 'apa yang terjadi jika angin sedikit lebih kencang?') dan mengamati bagaimana output AI berubah, untuk menebak mengapa AI membuat keputusan tersebut. Keuntungannya, LIME bersifat 'model-agnostik'—ia dapat digunakan untuk mengaudit AI apa pun. Namun, kekurangannya adalah hasil penjelasannya terkadang bisa tidak stabil.1

Model kedua, SHAP (SHapley Additive exPlanations), bertindak sebagai auditor internal. Ia didasarkan pada teori permainan matematis dan secara sistematis menghitung kontribusi pasti dari setiap fitur—seperti 'kecepatan angin' atau 'kelembapan'—terhadap keputusan akhir AI. SHAP sangat kuat, akurat secara matematis, dan dapat diandalkan untuk model berbasis pohon seperti XGBoost, meskipun membutuhkan waktu komputasi yang lebih lama.1

Dengan menggunakan LIME (si orang luar) dan SHAP (si orang dalam) secara bersamaan, para peneliti dapat memvalidasi penjelasan itu sendiri. Jika kedua 'auditor' ini setuju tentang mengapa AI menganggap suatu situasi berisiko tinggi, kepercayaan pada penjelasan tersebut meroket.

 

Cerita di Balik Data: Apa yang Ditemukan Peneliti di Langit Melbourne

Sebuah model AI secanggih apa pun tidak berguna tanpa data yang baik. Di sinilah letak kekuatan penelitian ini. Model ini tidak dilatih pada data simulasi yang steril. Model ini dilatih menggunakan data dunia nyata yang 'kotor' dan kompleks: catatan historis insiden dan kecelakaan penerbangan nyata dari Australian Transport Safety Bureau (ATSB) yang dikombinasikan dengan data meteorologi terperinci dari Bureau of Meteorology (BoM).1

Fokusnya adalah pada radius 15 km di sekitar Bandara Melbourne, sebuah wilayah udara yang sibuk dan menantang.1 Para peneliti memasukkan data dari total 518 hari, menggunakan 347 hari data untuk melatih AI (disebut training set) dan 171 hari data yang tersisa untuk mengujinya (testing set).1

Hasilnya sangat mengejutkan. Model XGBoost mampu mencapai akurasi prediksi tertinggi sebesar 92,40%.1

Untuk menempatkan ini dalam konteks: ini bukan lagi tebakan cuaca. Dari setiap 100 hari, model ini secara akurat memprediksi apakah kondisi hari itu berisiko tinggi atau aman untuk penerbangan pada lebih dari 92 hari. Ini adalah lompatan besar dari sekadar reaktif menjadi prediktif secara andal.

Namun, pertanyaan besarnya tetap: Bagaimana AI bisa tahu? Di sinilah "penerjemah" SHAP dan LIME masuk dan mengungkap cerita di balik data.

Ketika para peneliti 'membuka' kotak hitam itu untuk melihat gambaran besarnya (sebuah proses yang disebut global explanation), mereka menemukan bahwa faktor paling penting yang memprediksi insiden bukanlah suhu, atau hujan, atau bahkan jarak pandang. Faktor yang mendominasi semua variabel lainnya adalah angin.

Secara spesifik, dua fitur menonjol sebagai prediktor utama: SGW (Kecepatan embusan angin maksimum) dan 9SW (Kecepatan angin rata-rata pada jam 9 pagi).1 Temuan ini sendiri sudah berharga. Tetapi wawasan yang paling kuat—dan paling mengejutkan—datang ketika para peneliti melihat lebih dalam pada local dependence plots, yang menunjukkan bagaimana tepatnya fitur-fitur ini memengaruhi risiko.

Mereka menemukan ambang batas tersembunyi, atau 'titik kritis' (tipping points), yang tidak akan pernah bisa dilihat oleh analis manusia:

  • Cerita Angin (The Wind Tipping Point): Secara intuitif, kita tahu angin kencang itu berbahaya. Tapi AI menemukan aturan yang jauh lebih spesifik. Risiko insiden tidak meningkat secara perlahan seiring dengan meningkatnya kecepatan angin. Analisis SHAP (secara spesifik pada Gambar 11 dalam paper tersebut) menunjukkan gambaran yang jauh lebih dramatis. Dari 0 hingga 60 km/jam, risikonya ada tetapi dapat dikelola. Namun, tepat di 60 km/jam, kurva risiko "melonjak" (surges) secara vertikal. Kemudian, setelah 70 km/jam, risiko mencapai "langit-langit" (ceiling)—menjadi sangat tinggi dan tidak lagi bertambah seberapa pun kencangnya angin.1 Ini adalah aturan yang sangat jelas dan dapat ditindaklanjuti: 60 km/jam adalah ambang batas kewaspadaan kritis, dan 70 km/jam adalah batas bahaya absolut.
  • Paradoks Kelembapan (The Humidity Paradox): Temuan yang lebih mengejutkan datang dari analisis kelembapan relatif jam 3 sore (3 p.m. relative humidity, pada Gambar 12). Berlawanan dengan intuisi, AI menemukan bahwa ketika kelembapan berada antara 40% dan 60%, hal itu justru memiliki dampak negatif pada risiko.1 Dengan kata lain, secara statistik lebih aman terbang dalam kondisi tersebut. Para peneliti tidak berspekulasi mengapa, tetapi ini mungkin menunjukkan kondisi cuaca yang sangat stabil (misalnya, mendung tapi tenang, tanpa turbulensi termal). Namun, begitu kelembapan melebihi 60%, risiko "naik tajam" (rises sharply). Dan ketika mencapai 70% atau lebih, kelembapan "berkontribusi nyata" terhadap terjadinya insiden.1

Inilah kekuatan sebenarnya dari XAI. Seorang ATCO manusia mungkin waspada terhadap angin kencang atau kelembapan tinggi. AI kini dapat berkata: "Perhatian: angin saat ini 65 km/jam DAN kelembapan 65%. Kedua faktor tersebut baru saja melewati ambang batas 'lonjakan' risiko tersembunyi mereka secara bersamaan. Probabilitas insiden kini 92%."

 

Namun, Apakah Ini Cukup? (Sebuah Kritik Realistis)

Meskipun temuannya sangat kuat, penelitian ini memiliki satu keterbatasan besar, yang diakui secara terbuka oleh para penulis: ia berfokus pada musuh yang dikenal.

Keterbatasan utama dari studi kasus verifikasi ini adalah bahwa ia terbatas pada data lalu lintas udara konvensional—yaitu, pesawat terbang komersial dan pribadi.1 Kerangka kerja ini belum diuji pada tantangan terbesar di masa depan: manajemen lalu lintas drone (UTM).

Alasannya sederhana: masalah "keterbatasan ketersediaan data lalu lintas UAS".1 Secara teoritis, kerangka kerja AI dan XAI ini "dapat diterapkan secara langsung" ke UTM segera setelah dataset yang matang tersedia.1 Tetapi untuk saat ini, itu masih sebatas teori.

Namun, kelemahan ini bukanlah akhir dari cerita; ini adalah panggilan untuk bertindak bagi seluruh industri penerbangan. Penelitian ini secara efektif telah membangun, menguji, dan membuktikan sebuah 'mesin' yang mampu mengelola risiko penerbangan secara transparan dan akurat. Mesin ini sekarang 'lapar data'. Apa yang menghalangi penerapan kerangka kerja ini untuk merevolusi manajemen drone? Jawabannya adalah kurangnya dataset insiden UAS yang terstandarisasi, matang, dan dapat diakses publik. Laporan ini, oleh karena itu, merupakan argumen terkuat yang mendukung kolaborasi industri untuk berbagi data demi membuka kunci masa depan UTM yang aman.

 

Dari Data ke Kokpit: Bagaimana Tampilan 'Peringatan' AI Ini Sebenarnya

Model yang hebat tidak berguna jika informasinya mengganggu atau membingungkan operator manusia. Bagian terakhir dari penelitian ini berfokus pada jembatan penting: Human-Machine Interaction (HMI), atau bagaimana data ini disajikan kepada ATCO.1

Konsep Graphical User Interface (GUI) yang diusulkan para peneliti sangat cerdas karena dirancang untuk mengelola aset ATCO yang paling berharga: perhatian kognitif.1 Daripada membanjiri operator dengan data, sistem ini bekerja dalam dua mode berbeda 1:

  1. "Silent Mode" (Mode Senyap): Ketika model XAI terus memprediksi risiko rendah (misalnya, angin di bawah 60 km/jam dan kelembapan di bawah 60%), sistem tetap diam. Itu hanya menampilkan status tenang di sudut layar: "Predictive Alert: Active".1 Sistem ini membangun kepercayaan dengan tidak terus-menerus "menangis serigala" atau menginterupsi alur kerja.
  2. "Prompt Mode" (Mode Peringatan): Saat ambang batas risiko terlampaui, sistem langsung bertransisi. Status "Active" berubah menjadi "Predictive Alert: Warning" dan berkedip untuk menarik perhatian visual. Secara bersamaan, tag atau label pesawat yang terkait dengan risiko tersebut (misalnya, yang terbang menuju area berisiko) juga berkedip di layar radar utama.1

Ini adalah terjemahan sempurna dari data XAI ke dalam tindakan kognitif. Sistem tidak mengambil alih. Ia tidak memberi perintah. Ia bertindak sebagai co-pilot yang sempurna: ia mengarahkan perhatian manusia yang tak tergantikan ke tempat yang paling dibutuhkan, tepat pada saat itu dibutuhkan, dengan semua bukti pendukung (dari SHAP dan LIME) yang siap ditampilkan jika operator bertanya "Mengapa?"

 

Jika Diterapkan: Masa Depan 'Tim' Manusia-AI di Angkasa

Penelitian ini lebih dari sekadar latihan akademis dalam prediksi cuaca. Ini adalah cetak biru. Para peneliti telah menetapkan "metode yang layak" (feasible method) untuk meningkatkan dan memperkuat human-autonomy teaming (kolaborasi tim antara manusia dan mesin otonom).1

Jika kerangka kerja ini diterapkan, dampaknya dalam lima tahun ke depan bisa sangat besar. Ini bisa menjadi standar industri yang digunakan untuk sertifikasi Decision-Support Systems (DSS) berbasis AI, memastikan bahwa tidak ada lagi black box yang diizinkan beroperasi di menara kontrol.

Tujuan akhirnya, seperti yang dinyatakan oleh para peneliti, adalah untuk "memperkuat kepercayaan timbal balik (mutual trust) antara ATCO dan sistem".1 Kepercayaan inilah, yang dibangun di atas transparansi dan penjelasan yang dapat diverifikasi, yang pada akhirnya akan memungkinkan sistem ATM dan UTM di masa depan untuk menangani kepadatan lalu lintas yang masif dengan aman.

Para peneliti di RMIT University tidak hanya membangun AI yang lebih cerdas; mereka membangun AI yang bisa dipercaya. Dan di angkasa, kepercayaan adalah segalanya.

 

Sumber Artikel:

Explanation of Machine-Learning Solutions in Air-Traffic Management, diakses Oktober 27, 2025, https://doi.org/10.3390/aerospace8080224

Selengkapnya
Penelitian Ini Mengungkap Rahasia di Balik Insiden Penerbangan – dan Ini yang Harus Anda Ketahui Tentang 'Penerjemah Pikiran' AI
page 1 of 1