Big data

Menjaga Mutu AI di Era Big Data

Dipublikasikan oleh Viskha Dwi Marcella Nanda pada 24 April 2025


Pendahuluan: Menyatukan Dua Dunia—AI dan Mutu

Dalam dekade terakhir, dunia industri dan teknologi telah menyaksikan ledakan penggunaan model machine learning (ML) yang ditenagai oleh big data. Namun, seiring meningkatnya kompleksitas sistem dan skala data, tantangan baru muncul: bagaimana kita bisa menjamin bahwa model-model ini tidak hanya pintar, tetapi juga andal, adil, dan aman?

Artikel ini menyajikan ulasan komprehensif mengenai strategi quality assurance (QA) untuk aplikasi ML dalam lingkungan big data. Penulis mengusulkan taksonomi baru yang memetakan QA secara langsung ke pipeline ML, menjawab pertanyaan-pertanyaan besar seputar keandalan sistem cerdas di dunia nyata.

 

Tantangan Mutakhir: Kenapa QA dalam ML Itu Unik?

Berbeda dengan software konvensional yang bisa diuji dengan pendekatan white-box dan black-box standar, model ML bekerja berdasarkan data pelatihan dan inferensi statistik, sehingga:

  • Tidak memiliki spesifikasi keluaran yang pasti
  • Rentan terhadap bias data
  • Bisa mengalami drift atau decay secara diam-diam
  • Sulit dijelaskan (black-box nature)

Oleh karena itu, QA untuk ML membutuhkan pendekatan multidimensi, yang menyentuh tiga aspek utama: kualitas model, kualitas data, dan kualitas pipeline.

 

Dimensi Pertama: Menilai dan Menjamin Kualitas Model

Mengapa Akurasi Saja Tidak Cukup?

Akurasi sering dijadikan tolok ukur utama model ML, tetapi bisa menyesatkan. Misalnya, sebuah model klasifikasi bisa terlihat “baik” secara akurasi total, tetapi ternyata gagal secara sistematis pada subset data tertentu.

Strategi QA yang dibahas:

  • Slicing: menguji akurasi model pada subset data spesifik (contoh: jenis kelamin, lokasi, dsb.)
  • Behavioral Testing: menilai respons model terhadap skenario khas atau edge-case
  • Model Inspection & Explainability: memastikan model tidak belajar pola palsu (label leakage, bias korelatif)

Studi Kasus: Model Assertions & Weak Supervision

Salah satu pendekatan menarik adalah penggunaan assertions dalam library Python seperti OMG. Dengan mekanisme assertion ini, model diuji secara sistematis terhadap aturan-aturan tertentu (misalnya: lokasi objek dalam video tidak berubah tiba-tiba). Jika assertion gagal, data diberi label lemah (weak label), yang bisa digunakan untuk retraining model. Hasilnya? Kualitas model meningkat hingga 46% dalam beberapa kasus.

 

Dimensi Kedua: Kualitas Data Sebagai Tulang Punggung AI

Data Buruk = Model Gagal

Model terbaik pun tak akan berguna jika dilatih dengan data yang kotor, bias, atau tak relevan. Penulis menggarisbawahi bahwa garbage in, garbage out lebih nyata dari sebelumnya dalam ML.

Dimensi kualitas data yang diperhatikan:

  • Akurasi: apakah data mencerminkan kenyataan?
  • Kelengkapan: adakah data penting yang hilang?
  • Konsistensi: apakah data bertentangan antar sumber?
  • Unikness: adakah duplikasi merugikan?
  • Kekinian: apakah data masih relevan?

Tren Industri: Deteksi Drift dan Data Linting

Fenomena seperti data drift, concept drift, dan schema drift menjadi ancaman utama. Untuk mengatasinya, pendekatan QA mencakup:

  • Monitoring distribusi data secara berkala
  • Penggunaan data linting tools seperti DataLinter dan MLint
  • Pemisahan jelas antara data pelatihan dan pengujian
  • Kolaborasi erat antara produsen dan konsumen data

Salah satu rekomendasi penting dari paper adalah: data quality is best ensured at generation, not at correction.

 

Dimensi Ketiga: Kualitas Pipeline ML yang Tak Boleh Diabaikan

Pipeline Gagal = Bencana Diam-diam

Sistem ML bisa tampak "berfungsi" di permukaan, padahal sebenarnya gagal menjalankan pipeline dengan benar—dan ini sering terjadi secara diam-diam (silent failure).

Contoh nyata:

  • Database connector error membuat model dilatih pada data basi
  • Model gagal diperbarui karena kegagalan retraining otomatis
  • Telemetri dari sensor hilang tapi tidak terdeteksi

Solusi QA Pipeline yang Ditawarkan:

  • Code Review komponen pipeline secara sistematis
  • Pipeline Orchestration dengan Apache Airflow
  • Static Analysis Tools seperti PySmell, Leakage Analysis, dan DataLinter
  • ML Test Score: metrik QA gabungan untuk tiap tahapan pipeline
  • Error boundary testing: fokus pada titik-titik rentan interaksi komponen

 

Taksonomi QA Terbaru: Panduan Praktis untuk Tim AI

Artikel ini memperkenalkan sebuah taksonomi QA baru yang memetakan peran tim (data scientist, ML engineer, tester) terhadap langkah-langkah spesifik dalam ML pipeline. Tujuannya adalah memudahkan tim lintas fungsi memahami:

  • Teknik QA relevan untuk tiap fase
  • Tantangan dan solusi QA spesifik
  • Relevansi QA terhadap sektor industri (kesehatan, otomotif, dsb.)

 

Kontribusi dan Kekuatan Artikel Ini

Yang menjadikan artikel ini menonjol:

  • Mengintegrasikan 40+ referensi utama di bidang QA-ML
  • Menyediakan taksonomi QA lengkap dari data hingga pipeline
  • Memberikan practical guideline untuk dunia industri dan akademik
  • Menyusun pendekatan sistematis yang dapat dijadikan kurikulum bagi universitas

 

Kritik & Rekomendasi Tambahan

Meskipun menyeluruh, paper ini masih memiliki ruang perbaikan:

  • Belum membahas QA untuk generative AI secara mendalam
  • Kurang contoh konkret dari sektor-sektor vital seperti keuangan atau pertahanan
  • Belum menyentuh etika dan keberlanjutan QA dalam konteks ESG (Environmental, Social, and Governance)

 

Kesimpulan: Mutu Adalah Pilar Kepercayaan AI

Kita berada di titik di mana keberhasilan AI tidak hanya ditentukan oleh kecerdasan algoritma, tetapi oleh kredibilitas, keamanan, dan keandalan sistem secara menyeluruh. QA bukan sekadar pelengkap, melainkan fondasi utama bagi aplikasi ML yang layak digunakan di dunia nyata. Artikel Ogrizović et al. berhasil menyajikan kerangka strategis yang tidak hanya relevan hari ini, tetapi juga tahan uji di masa depan.

 

Sumber

Ogrizović, M., Drašković, D., & Bojić, D. (2024). Quality assurance strategies for machine learning applications in big data analytics: an overview. Journal of Big Data, 11(156).

 

Selengkapnya
Menjaga Mutu AI di Era Big Data

Big data

Transformasi Mutu Manufaktur

Dipublikasikan oleh Viskha Dwi Marcella Nanda pada 24 April 2025


Pendahuluan: Kualitas dalam Era Produksi Digital

Di tengah pesatnya transformasi digital industri manufaktur, tantangan terbesar bukan hanya terletak pada otomasi atau efisiensi energi, melainkan bagaimana data yang terus mengalir dari berbagai mesin, sensor, dan sistem dikelola untuk mendukung pengambilan keputusan mutu secara real-time. Artikel oleh Filz et al. menyuguhkan pendekatan revolusioner: membangun platform digital yang menyatukan seluruh sistem mutu dalam satu arsitektur terintegrasi dan adaptif.

Pendekatan ini bukan sekadar menambal kelemahan sistem inspeksi tradisional, tapi membentuk ulang cara kita memahami kualitas sebagai sesuatu yang dinamis, holistik, dan berbasis prediksi.

 

Paradigma Baru Manajemen Kualitas: Dari Reaktif ke Proaktif

Selama bertahun-tahun, manajemen kualitas dalam manufaktur terjebak dalam kerangka kerja reaktif: inspeksi dilakukan setelah kesalahan terjadi. Namun, artikel ini mendorong adopsi sistem cyber-physical production systems (CPPS) yang mengintegrasikan dunia fisik dan digital melalui:

  • Sensor cerdas
  • Akuisisi data real-time
  • Model analitik prediktif
  • Keputusan otomatis berbasis data

Tujuan utamanya adalah zero defect manufacturing—produksi tanpa cacat—yang hanya dapat dicapai jika sistem mampu beradaptasi bukan hanya mengoreksi.

 

Menjawab Dua Pertanyaan Kunci

Penelitian ini menjawab dua pertanyaan penting:

  1. Platform seperti apa yang dibutuhkan untuk mengelola dan menganalisis data manufaktur secara holistik?
  2. Bagaimana platform ini bisa mengaktifkan manajemen kualitas berbasis data dalam skala industri?

Jawabannya adalah arsitektur platform berlapis yang tidak hanya mengolah data tetapi juga menyajikannya untuk pengambilan keputusan strategis dan operasional.

 

Tiga Pilar Arsitektur: Data, Model, dan Visualisasi

1. Data Management Layer

Menyediakan single source of truth untuk semua data manufaktur, baik historis maupun real-time. Pengumpulan data mencakup:

  • Parameter proses (misalnya: suhu, tekanan)
  • Data operasional dari ERP/MES
  • Hasil inspeksi visual (SPI, AOI)
  • Data sensor dari jaringan IoT

Semua data diberi ID unik untuk pelacakan antar proses, memungkinkan analisis lintas proses dan akurasi tinggi.

2. Modeling Layer

Di sinilah machine learning bekerja. Engineer membangun model prediksi untuk:

  • Mengklasifikasikan produk antara (intermediate products)
  • Mendeteksi propagasi cacat
  • Menyesuaikan strategi inspeksi secara otomatis

Model seperti clustering, klasifikasi, dan visualisasi interaktif digunakan untuk membuat keputusan berbasis data.

3. Visualization Layer

Dasbor interaktif dibangun menggunakan Python (Streamlit) agar:

  • Shop floor worker bisa memantau dan bertindak
  • Engineer bisa mengevaluasi performa model
  • Manajemen mendapat wawasan strategis

 

Studi Kasus: Produksi PCB dan Revolusi Kualitas Virtual

Dalam kasus nyata pada produksi elektronik PCB, platform ini diuji secara konkret. Rantai proses mencakup:

  1. Stencil Printing → Solder Paste Inspection (SPI)
  2. Pick & Place (P&P)
  3. Reflow Soldering
  4. Automated Optical Inspection (AOI)

Dengan mengumpulkan data dari SPI dan AOI, serta mengintegrasikan identifikasi barcode, tim berhasil melacak propagasi properti produk dari awal hingga akhir. Visualisasi dengan Sankey diagram menunjukkan bagaimana kualitas awal mempengaruhi hasil akhir.

Insight penting: Produk dengan hasil SPI-top:1 dan AOI-top:2 cenderung menghasilkan produk akhir yang bagus. Artinya, inspeksi dapat dikurangi di titik-titik tersebut untuk efisiensi.

 

Mengatasi Tantangan Nyata Industri

Penelitian ini tidak berhenti di idealisme teknologi. Mereka juga membahas tantangan praktis yang sering diabaikan:

  • Data imbalance: Hanya sedikit produk cacat, menyulitkan pelatihan model.
  • Kesalahan positif (pseudo error) dari sistem AOI memerlukan re-klasifikasi manual.
  • Data heterogen: Berasal dari berbagai sistem dan format.
  • Kebutuhan visualisasi untuk semua pemangku kepentingan dari engineer hingga operator.

 

Inovasi dalam Integrasi: Microservices dan Hybrid Processing

Platform ini menerapkan arsitektur microservices, memastikan modularitas dan fleksibilitas tinggi. Dua cabang utama dalam sistem ini:

  • Cloud: Untuk analitik batch dan pengembangan model
  • Edge: Untuk eksekusi real-time di dekat mesin

Hal ini memungkinkan analitik dijalankan secara real-time tanpa delay, sementara pembaruan model tetap dilakukan dari pusat.

 

Dampak Praktis: Menuju Produksi Lebih Adaptif dan Berkelanjutan

Beberapa dampak signifikan yang ditawarkan:

  • Efisiensi inspeksi melalui Virtual Quality Gates (VQG)
  • Pengurangan scrap & rework
  • Integrasi pengguna lintas peran, dari engineer hingga operator
  • Evaluasi keberlanjutan dengan integrasi potensi LCA (Life Cycle Assessment)

 

Kritik & Opini: Apa yang Bisa Ditingkatkan?

Penelitian ini sangat kuat dari sisi konseptual dan arsitektural. Namun, beberapa ruang perbaikan mencakup:

  • Validasi masih terbatas pada satu studi kasus (PCB). Diperlukan perluasan ke industri otomotif atau logam.
  • Belum banyak dibahas integrasi dengan framework komersial seperti Apache Spark atau AWS.
  • User interface bisa lebih eksploratif dengan integrasi AR/VR untuk operator pabrik.

 

Kesimpulan: Digitalisasi Mutu Bukan Lagi Tambahan, tapi Inti

Platform digital yang ditawarkan oleh Filz et al. bukan sekadar alat bantu, melainkan landasan baru bagi mutu di era Industri 4.0. Dengan menggabungkan kekuatan big data, model prediktif, dan visualisasi adaptif, mereka menciptakan sistem yang bukan hanya menginspeksi tapi juga mencegah dan memperbaiki masalah kualitas secara otonom.

 

Sumber

Filz, M.-A., Bosse, J. P., & Herrmann, C. (2024). Digitalization Platform for Data-Driven Quality Management in Multi-Stage Manufacturing Systems. Journal of Intelligent Manufacturing, 35, 2699–2718.

 

Selengkapnya
Transformasi Mutu Manufaktur

Big data

Menembus Batas Baru Manufaktur Modern

Dipublikasikan oleh Viskha Dwi Marcella Nanda pada 23 April 2025


Quality 4.0: Evolusi Mutu di Era Industri 4.0

Kualitas tak lagi sekadar hasil akhir dari proses produksi, melainkan buah dari integrasi teknologi pintar ke seluruh siklus manufaktur. Quality 4.0 muncul sebagai filosofi terbaru dalam pergerakan mutu industri, yang menggabungkan prinsip-prinsip statistik klasik, manajemen mutu total, dan Six Sigma dengan kecanggihan big data dan kecerdasan buatan.

Carlos A. Escobar dkk. dalam artikelnya menyoroti bahwa meski teknologi seperti AI dan Internet of Things menjanjikan peningkatan produktivitas dan mutu, kenyataannya tidak semudah itu. Berdasarkan survei, hingga 87% proyek big data di industri gagal menghasilkan solusi berkelanjutan. Penyebabnya? Minimnya pemahaman, strategi yang lemah, dan ekspektasi yang terlalu tinggi tanpa kesiapan teknis.

 

Empat Masalah Inti dalam Implementasi Quality 4.0

1. Paradigma Baru yang Sulit Dipahami

Salah satu hambatan besar adalah pergeseran dari pendekatan berbasis fisika ke pendekatan empiris dan data-driven. Model AI seringkali bersifat “black box”, membuat banyak insinyur kesulitan memahami dan mempercayainya. Kurangnya keterkaitan langsung antara variabel prediktor dan hukum fisika memperparah keraguan akan validitas solusi AI.

Solusi: Gunakan model sederhana terlebih dahulu, seperti SVM atau decision trees, sebelum masuk ke deep learning. Ini membantu meningkatkan kepercayaan pengguna dan mempercepat adopsi.

2. Salah Pilih Proyek, Gagal Total

Banyak perusahaan terjebak hype AI tanpa memahami kecocokan aplikasinya. Penulis menyarankan 18 kriteria seleksi proyek, mencakup pertanyaan tentang ketersediaan data, nilai bisnis, keterkaitan fisika, dan kompleksitas proses.

Insight penting: Mulai dari proyek “low hanging fruit” yang mudah diimplementasikan dan cepat menunjukkan hasil. Jangan langsung mengejar moonshot.

3. Tantangan Redesign Proses

AI mampu mendeteksi pola dan memprediksi cacat, tapi belum tentu bisa menjelaskan penyebabnya. Oleh karena itu, kombinasi antara pembelajaran data dan eksperimen fisik tetap diperlukan untuk mengonfirmasi hubungan sebab-akibat dan mengoptimalkan parameter proses.

4. Masalah Relearning dan Drift Data

Model yang dilatih di laboratorium sering tidak tahan lama di lingkungan nyata karena distribusi data berubah seiring waktu. Ini disebut concept drift.

Strategi: Bangun sistem relearning otomatis dengan jadwal retraining dan sistem peringatan dini agar model tetap akurat dan relevan.

 

Strategi 7 Langkah: Roadmap Menuju Quality 4.0 yang Sukses

Penulis mengusulkan pembaruan siklus pemecahan masalah dari empat ke tujuh langkah sebagai berikut:

  1. Identify – Pilih masalah atau proses yang tepat
  2. Acsensorize – Pasang sensor untuk mengumpulkan data nyata
  3. Discover – Buat dan seleksi fitur dari data mentah
  4. Learn – Bangun model prediksi menggunakan machine learning
  5. Predict – Terapkan model untuk prediksi cacat secara real-time
  6. Redesign – Gunakan wawasan dari model untuk merancang ulang proses
  7. Relearn – Adaptasi model terhadap perubahan data dan lingkungan

Model ini merupakan evolusi dari pendekatan SPI, PDCA, DMAIC, dan DMADOV. Pendekatannya kini bukan hanya reaktif, tapi prediktif dan berkelanjutan.

 

Studi Kasus: Dari Visual Inspection ke Model Prediktif

Dalam banyak pabrik, inspeksi mutu masih mengandalkan manusia. Akurasinya sekitar 80%, dengan risiko tinggi terhadap kesalahan positif dan negatif. Quality 4.0 menawarkan alternatif berbasis Process Monitoring for Quality (PMQ), yaitu sistem prediksi berbasis data real-time.

Contoh nyatanya adalah pengelasan ultrasonik pada baterai mobil Chevrolet Volt. Dengan PMQ, perusahaan mampu mendeteksi cacat yang sebelumnya luput dari pengawasan statistik konvensional.

 

Tantangan Praktis dalam Pengembangan Model

Mengembangkan model prediksi mutu bukan hal sepele:

  • Data manufaktur cenderung tidak seimbang: hanya 1% cacat.
  • Banyak fitur yang redundan atau tidak relevan.
  • Variabel berskala berbeda dan kategorikal perlu diolah dulu.
  • Sering kali data yang tersedia tidak lengkap atau berisik.

Paradigma Big Models yang diusulkan penulis meliputi teknik seleksi fitur, normalisasi, imputation, dan validasi waktu-berurutan (time-ordered holdout) untuk meningkatkan performa dan keandalan.

 

Relevansi Industri: Mengapa Ini Urgen?

Seiring dengan transformasi digital, manufaktur tak lagi sekadar soal efisiensi, tapi juga agility, customization, dan zero defect vision. Menurut Escobar dkk., kegagalan dalam memanfaatkan big data justru menjadi hambatan terbesar dalam evolusi industri ke arah ini.

Banyak organisasi telah menginvestasikan sumber daya dalam AI dan big data, namun hasilnya nihil karena tidak memiliki strategi adopsi yang matang, budaya perusahaan yang siap berubah, dan pemahaman teknis yang cukup.

 

Rekomendasi untuk Industri

  1. Bangun budaya digital: Libatkan semua lapisan organisasi sejak awal.
  2. Kembangkan peta strategi Quality 4.0: Tentukan scope, synergy, dan strength.
  3. Siapkan infrastruktur IT yang memadai: Cloud, sensor, data lake.
  4. Formulasikan tim lintas fungsi: Manajemen, IT, data scientist, dan engineer.
  5. Mulai dari kecil: Validasi model di skala terbatas sebelum full deployment.

 

Penutup: Quality 4.0 Bukan Lagi Pilihan, tapi Keharusan

Tulisan Escobar dan tim membuka mata kita bahwa Quality 4.0 bukan sekadar proyek teknologi canggih, melainkan filosofi manajemen mutu masa depan yang menuntut kesiapan budaya, organisasi, dan strategi menyeluruh.

Dalam dunia industri yang semakin kompleks, dinamis, dan dipacu oleh inovasi cepat, pendekatan prediktif dan adaptif yang ditawarkan Quality 4.0 menjadi game changer. Bagi perusahaan yang ingin tetap relevan dan kompetitif, Quality 4.0 bukan lagi opsi tambahan, melainkan fondasi yang harus segera dibangun hari ini.

 

Sumber

Escobar, C. A., McGovern, M. E., & Morales-Menendez, R. (2021). Quality 4.0: A review of big data challenges in manufacturing. Journal of Intelligent Manufacturing, 32, 2319–2334.

 

Selengkapnya
Menembus Batas Baru Manufaktur Modern

Big data

Big Data dalam Manajemen Proses

Dipublikasikan oleh Viskha Dwi Marcella Nanda pada 22 April 2025


Era Big Data: Mengapa Penting Bagi Manajemen Proses?

Dalam dua dekade terakhir, revolusi digital menghadirkan perubahan masif dalam cara organisasi mengelola informasi dan proses bisnisnya. Salah satu teknologi yang paling transformatif adalah big data—sekumpulan data berskala masif, bervariasi, dan mengalir dengan sangat cepat (volume, variety, velocity).

Namun, seperti yang diungkapkan oleh Ephraim dan Sehic dalam tesis mereka, big data masih jauh dari kata optimal dalam konteks manajemen proses. Meskipun potensinya besar, adopsi nyata di perusahaan masih terbatas dan seringkali tidak menyentuh aspek proses secara holistik.

 

Tujuan Tesis: Menyatukan Dua Dunia yang Sering Terpisah

Tesis ini mencoba menjawab dua pertanyaan utama:

  1. Bagaimana big data digunakan dalam manajemen proses menurut literatur?
  2. Apa tujuan dan tantangan penggunaan big data di organisasi Swedia menurut survei?

Untuk menjawab ini, penulis menggabungkan studi literatur dengan survei dan wawancara di berbagai sektor industri. Pendekatan ini memperkaya perspektif teoretis dengan pengalaman nyata di lapangan.

 

3 Pilar Penggunaan Big Data dalam Manajemen Proses

Dalam studi ini, manajemen proses dibagi menjadi tiga aktivitas utama:

  • Pengembangan & pemetaan proses
  • Analisis & perbaikan proses
  • Kontrol & kelincahan proses (agility)

Big data digunakan terutama untuk dua hal terakhir—analisis dan kontrol proses—sementara untuk pemetaan dan pengembangan masih minim eksplorasi.

Temuan utama:

  • 80% aplikasi big data ditemukan dalam analisis dan kontrol proses.
  • Kurang dari 20% digunakan untuk pengembangan awal proses.

Hal ini menunjukkan bahwa perusahaan cenderung menggunakan data untuk reaktif, bukan proaktif.

 

Studi Kasus: Industri Minyak dan Gas

Dalam tinjauan literatur, salah satu studi menarik berasal dari sektor minyak dan gas (Sumbal et al., 2019). Di sini, big data digunakan untuk:

  • Mengembangkan katalis dalam proses likuifikasi gas, mempercepat waktu R&D dari beberapa tahun menjadi hanya 13 bulan.
  • Maintenance prediktif melalui sensor pada turbin dan kompresor yang memotong biaya dan downtime.
  • Deteksi otomatis kebocoran minyak lewat citra satelit.

Namun, tantangannya juga nyata:

  • Kurangnya kompetensi data science
  • Rendahnya integrasi antar database
  • Keengganan manajemen puncak untuk berinvestasi besar pada teknologi yang belum familiar

 

Survei di Swedia: Jarak antara Potensi dan Realisasi

Survei terhadap organisasi di Swedia mengungkap hasil yang mengejutkan:

  • Mayoritas responden mengakui big data bermanfaat, tapi tidak menggunakannya secara aktif.
  • Tujuan utama penggunaan adalah untuk pengambilan keputusan yang lebih baik dan efisiensi proses.
  • Tantangan terbesar? Kompleksitas pengelolaan data dan kurangnya komitmen dari manajemen atas.

Temuan menarik:

  • Hanya 9 responden, namun mayoritas adalah manajer dan peneliti.
  • Organisasi besar lebih cenderung mengadopsi big data dibandingkan perusahaan kecil.
  • Banyak yang ingin menggunakan big data di masa depan tapi tidak tahu harus mulai dari mana.

 

Framework Praktis: Matriks Analisis Big Data

Penulis menyusun sebuah matriks yang memetakan dimensi manajemen proses dengan aplikasi big data. Ini menciptakan peta visual bagaimana data bisa digunakan di setiap tahapan:

  • Process Mapping & Development: rendah
  • Process Analysis & Improvement: tinggi
  • Process Control & Agility: tinggi

Artinya, potensi penggunaan data secara strategis di tahap perencanaan masih terbuka lebar.

 

Kritik dan Refleksi: Apa yang Bisa Diperbaiki?

Meski tesis ini memberikan insight mendalam, ada beberapa keterbatasan:

  • Survei hanya mendapat sedikit responden (9 orang), sehingga tidak bisa digeneralisasi.
  • Fokus utama masih pada organisasi di Swedia, kurang mencerminkan global trend.
  • Belum banyak eksplorasi tentang teknologi spesifik seperti AI, machine learning, atau data lake secara teknis.

Namun, kekuatan terbesar tesis ini adalah penggabungan teori dan praktik, yang masih langka di bidang ini.

 

Implikasi Praktis untuk Dunia Industri

Berikut adalah langkah-langkah konkret untuk organisasi yang ingin mengintegrasikan big data dalam manajemen proses:

1. Mulai dari Tujuan, Bukan Teknologi

Fokus pada value creation yang diinginkan. Misalnya: efisiensi waktu produksi, prediksi permintaan, atau pengurangan kegagalan proses.

2. Bangun Kompetensi Internal

Rekrut atau latih tim yang bisa menjembatani antara proses bisnis dan teknologi data.

3. Gunakan Data untuk Desain Proses, Bukan Hanya Monitoring

Manfaatkan big data dalam desain ulang proses (redesign) agar lebih adaptif sejak awal.

4. Ciptakan Budaya Berbasis Data

Kembangkan budaya kerja yang menghargai keputusan berbasis data, bukan intuisi atau hierarki semata.

 

Kesimpulan: Big Data adalah Mesin, Tapi Proses adalah Kendalinya

Big data memang menjanjikan transformasi besar bagi manajemen proses. Tapi tanpa integrasi yang matang, potensi tersebut bisa hilang sia-sia. Seperti yang ditunjukkan oleh Ephraim dan Sehic, perlu sinergi antara teknologi, strategi, dan budaya organisasi.

Tesis ini menjadi pengingat penting bahwa transformasi digital bukan hanya soal alat canggih, tetapi juga soal cara kita berpikir, merancang, dan menjalankan proses.

 

Sumber

Ephraim, E. E., & Sehic, S. (2021). The Use of Big Data in Process Management: A Literature Study and Survey Investigation. Master’s Thesis, Linköping University.

 

Selengkapnya
Big Data dalam Manajemen Proses
page 1 of 1