Teknik Industri
Dipublikasikan oleh Sirattul Istid'raj pada 29 April 2025
Dalam bidang geometri, konsep jarak merupakan hal yang mendasar, dan rumus jarak Euclidean yang sudah tidak asing lagi sudah tertanam kuat dalam pemahaman kita tentang hubungan spasial. Namun, para ahli matematika telah mengeksplorasi definisi alternatif tentang jarak, yang mengarah pada pengembangan geometri yang menarik dengan sifat-sifat yang unik. Salah satu geometri tersebut adalah Geometri Taksi, yang juga dikenal sebagai Geometri Manhattan atau Geometri Blok Kota.
Geometri Taksi berangkat dari ukuran jarak Euclidean tradisional dan sebagai gantinya mendefinisikan jarak antara dua titik sebagai jumlah perbedaan absolut dari koordinat Kartesius masing-masing. Fungsi jarak ini dinamakan "jarak taksi", "jarak Manhattan", atau "jarak blok kota", karena fungsi ini merefleksikan jalur yang harus dilalui oleh sebuah taksi di sepanjang jalan persegi panjang di kota yang terencana seperti Manhattan.
Secara formal, dalam ruang koordinat nyata dua dimensi (R^2), jarak taksi antara dua titik (x1, y1) dan (x2, y2) diberikan oleh rumus:
d((x1, y1), (x2, y2)) = |x1 - x2| + |y1 - y2|
Metrik jarak ini mengarah pada interpretasi geometris yang berbeda dari panjang dan kurva. Dalam Geometri Taksi, panjang segmen garis antara dua titik sama dengan panjang jalur kisi terpendeknya, bukan panjang Euclidean. Akibatnya, kurva dan bentuk memiliki karakteristik yang berbeda, menantang gagasan intuitif kita tentang geometri.
Asal-usul Geometri Taksi dapat ditelusuri kembali ke abad ke-18, ketika digunakan dalam analisis regresi, dan sering disebut sebagai LASSO (Least Absolute Shrinkage and Selection Operator) dalam konteks statistik. Namun, interpretasi geometrisnya dikaitkan dengan Hermann Minkowski, seorang matematikawan perintis di bidang geometri non-Euclidean pada abad ke-19.
Geometri Taksi menawarkan perspektif baru tentang hubungan spasial dan jarak, memungkinkan kita untuk mengeksplorasi geometri alternatif dan implikasinya. Geometri ini memiliki aplikasi di berbagai bidang, termasuk perencanaan kota, jaringan transportasi, dan bahkan pemrosesan gambar, di mana konsep jarak "blok kota" dapat berguna.
Meskipun jarak Euclidean tetap menjadi ukuran utama dalam banyak aplikasi praktis, Taxicab Geometry berfungsi sebagai pengingat bahwa matematika adalah permadani yang kaya akan ide, dan dengan merangkul perspektif alternatif, kita dapat memperoleh wawasan yang lebih dalam dan menemukan kemungkinan baru dalam cara kita memahami dan berinteraksi dengan dunia di sekitar kita.
Searah Geometri Taksi
Akar geometri taksi, juga dikenal sebagai metrik L1, dapat ditelusuri kembali ke abad ke-18 ketika Roger Joseph Boscovich menggunakannya dalam analisis regresi sebagai ukuran kesesuaian. Namun, konseptualisasinya sebagai metrik jarak antar titik dalam ruang geometris baru muncul pada akhir abad ke-19 seiring dengan berkembangnya geometri non-Euclidean.
Pada tahun 1910, baik Frigyes Riesz dan Hermann Minkowski secara independen berkontribusi pada formalisasi ruang Lp, yang mencakup geometri taksi sebagai kasus khusus. Karya Riesz meletakkan dasar untuk memahami ruang-ruang ini sebagai ruang vektor bernorma, sementara Minkowski memperkenalkan ketidaksetaraan Minkowski, yang selanjutnya memajukan geometri bilangan.
Istilah "geometri taksi" diciptakan oleh Karl Menger pada tahun 1952, dalam sebuah buku berjudul "You Will Like Geometry," yang menyertai pameran geometri di Museum Sains dan Industri di Chicago. Istilah ini dengan tepat menangkap gagasan pengukuran jarak yang mirip dengan jalur yang dilalui taksi pada tata ruang jalan kota yang seperti grid.
Definisi Resmi
Jarak Manhattan  dalam ruang vektor 
 dengan sistem koordinat Kartesius, antara vektor 
 dan 
, adalah jumlah panjang proyeksi ruas garis antara kedua vektor tersebut terhadap sumbu-sumbu koordinat. Secara matematis, jarak Manhattan dapat didefinisikan sebagai berikut
Sifat-sifat Geometri Taks
Jarak taksi, sebuah metrik khusus yang diterapkan pada ruang Euclidean, memperkenalkan sifat-sifat menarik yang berbeda dari geometri Euclidean tradisional.
Aplikasi Geometri Taksi
Dalam menyelesaikan sistem persamaan linear yang tidak dapat ditentukan, istilah regularisasi untuk vektor parameter dinyatakan dalam bentuk ℓ1 norma (geometri taksi) dari vektor. Pendekatan ini muncul dalam kerangka pemulihan sinyal yang disebut penginderaan terkompresi.
Geometri taksi dapat digunakan untuk menilai perbedaan distribusi frekuensi diskrit. Misalnya, dalam penyambungan RNA, distribusi posisi heksamer, yang mewakili kemungkinan munculnya setiap heksamer pada setiap nukleotida tertentu di dekat lokasi penyambungan, dapat dibandingkan menggunakan jarak L1. Setiap distribusi posisi dapat direpresentasikan sebagai vektor di mana setiap segmen menunjukkan probabilitas heksamer dimulai pada nukleotida tertentu. Jarak L1 yang besar antara kedua vektor menunjukkan perbedaan sifat distribusi yang signifikan, sedangkan jarak yang kecil menunjukkan distribusi yang berbentuk serupa. Hal ini serupa dengan mengukur luas antara dua kurva distribusi karena tinggi setiap segmen adalah selisih mutlak antara kemungkinan kedua kurva pada titik tersebut. Ketika dijumlahkan di semua segmen, hasilnya sama dengan jarak L1.
Disadur dari: en.wikipedia.org/id.wikipedia.org
Teknik Industri
Dipublikasikan oleh Sirattul Istid'raj pada 29 April 2025
Analisis Diskriminan Linear (LDA), juga dikenal sebagai Analisis Diskriminan Normal (NDA) atau Analisis Fungsi Diskriminan, adalah generalisasi dari diskriminan linier milik Fisher. Metode ini digunakan dalam statistik dan bidang lainnya untuk menemukan kombinasi linear fitur yang menggambarkan atau memisahkan dua atau lebih kelas objek atau peristiwa. Kombinasi yang dihasilkan dapat digunakan sebagai pengklasifikasi linier atau, lebih umumnya, untuk reduksi dimensi sebelum klasifikasi lebih lanjut.
LDA berkaitan erat dengan analisis varians (ANOVA) dan analisis regresi, yang juga berusaha untuk mengekspresikan satu variabel terikat sebagai kombinasi linear dari fitur atau pengukuran lainnya. Namun, ANOVA menggunakan variabel independen kategorikal dan variabel terikat kontinu, sedangkan analisis diskriminan memiliki variabel independen kontinu dan variabel terikat kategorikal (yaitu label kelas). Regresi logistik dan regresi probit lebih mirip dengan LDA daripada ANOVA, karena mereka juga menjelaskan variabel kategorikal dengan nilai variabel independen kontinu.
LDA juga berkaitan erat dengan Analisis Komponen Utama (PCA) dan analisis faktor karena keduanya mencari kombinasi linear dari variabel yang paling baik menjelaskan data. LDA secara eksplisit mencoba memodelkan perbedaan antara kelas data, sedangkan PCA tidak memperhatikan perbedaan kelas, dan analisis faktor membangun kombinasi fitur berdasarkan perbedaan daripada kesamaan. Analisis diskriminan juga berbeda dari analisis faktor karena bukan merupakan teknik interdependensi: perlu dibuat perbedaan antara variabel independen dan variabel terikat (juga disebut variabel kriteria).
LDA bekerja ketika pengukuran yang dilakukan pada variabel independen untuk setiap observasi adalah kuantitas kontinu. Ketika berurusan dengan variabel independen kategorikal, teknik setara adalah analisis korespondensi diskriminan. Analisis diskriminan digunakan ketika grup sudah diketahui sebelumnya (berbeda dengan analisis cluster). Setiap kasus harus memiliki skor pada satu atau lebih ukuran prediktor kuantitatif, dan skor pada ukuran grup. Secara sederhana, analisis fungsi diskriminan adalah klasifikasi - tindakan mendistribusikan hal-hal ke dalam kelompok, kelas, atau kategori yang sama.
Sejarah dan Perkembangan Analisis Diskriminan
Pada tahun 1936, Sir Ronald Fisher mengembangkan analisis diskriminan dichotomous asli. Metode ini berbeda dari ANOVA atau MANOVA, yang digunakan untuk memprediksi satu (ANOVA) atau beberapa (MANOVA) variabel terikat kontinu dengan satu atau lebih variabel independen kategorikal. Analisis fungsi diskriminan bermanfaat dalam menentukan apakah sekumpulan variabel efektif dalam memprediksi keanggotaan kategori.
Analisis Diskriminan Linear (LDA) untuk Dua Kelas
Dalam analisis statistik, terutama dalam pemrosesan data dan klasifikasi, metode Analisis Diskriminan Linear (LDA) memiliki peran penting. Konsep ini, yang dikembangkan oleh Sir Ronald Fisher pada tahun 1936, digunakan untuk membedakan atau memisahkan dua kelas objek atau peristiwa berdasarkan serangkaian pengamatan yang dikenal.
LDA bekerja dengan mengasumsikan bahwa fungsi kepadatan probabilitas bersyarat untuk setiap kelas adalah distribusi normal dengan parameter rata-rata dan kovariansi tertentu. Di bawah asumsi ini, solusi Bayes-optimal adalah memprediksi titik-titik sebagai berasal dari kelas kedua jika log dari rasio kemungkinan lebih besar dari suatu ambang tertentu. Metode ini memungkinkan klasifikasi yang akurat dan efisien.
Selain itu, LDA juga membuat asumsi tambahan yang disebut homoskedastisitas, yang mengasumsikan bahwa kovariansi antar kelas adalah identik. Dengan asumsi ini, beberapa istilah dalam rumus klasifikasi dapat disederhanakan, menghasilkan pengklasifikasi linier yang lebih efisien.
Dari sudut pandang geometris, LDA mengartikan klasifikasi sebagai proyeksi titik dalam ruang multidimensi ke dalam vektor tertentu, di mana letaknya menentukan kelasnya. Dengan kata lain, keputusan klasifikasi adalah hasil dari perbandingan linear dari pengamatan yang diketahui.
Dengan asumsi yang tepat dan penerapan yang cermat, Analisis Diskriminan Linear (LDA) memberikan pendekatan yang kuat untuk memahami dan mengklasifikasikan data, yang dapat digunakan dalam berbagai konteks, mulai dari riset ilmiah hingga aplikasi praktis dalam kehidupan sehari-hari.
Penggunaan Praktis Analisis Diskriminan Linear (LDA)
Dalam praktiknya, rata-rata kelas dan kovariansi tidak selalu diketahui. Namun, keduanya dapat diestimasi dari set data pelatihan. Estimasi yang umum digunakan adalah estimasi maksimum kemungkinan atau estimasi maksimum a posteriori. Meskipun estimasi kovariansi mungkin dianggap optimal dalam beberapa hal, ini tidak berarti bahwa diskriminan yang dihasilkan dengan menggunakan nilai-nilai ini adalah yang terbaik dalam segala hal, bahkan jika asumsi tentang distribusi normal kelas adalah benar.
Salah satu komplikasi dalam menerapkan LDA dan diskriminan Fisher pada data nyata adalah ketika jumlah pengukuran setiap sampel melebihi jumlah sampel dalam setiap kelas. Dalam kasus ini, estimasi kovariansi tidak memiliki peringkat penuh, sehingga tidak dapat diinverskan. Ada beberapa cara untuk mengatasi hal ini, salah satunya adalah menggunakan pseudo invers sebagai gantinya. Namun, stabilitas numerik yang lebih baik dapat dicapai dengan pertama-tama memproyeksikan masalah ke dalam subruang yang dipanjangi oleh Σb. Strategi lain untuk mengatasi ukuran sampel kecil adalah dengan menggunakan estimasi penyusutan matriks kovariansi, yang dapat dinyatakan secara matematis sebagai:
Σ = (1 - λ)Σ + λI,
di mana I adalah matriks identitas, dan λ adalah intensitas penyusutan atau parameter regularisasi.
Selain itu, dalam banyak kasus praktis, diskriminan linear tidak cocok. LDA dan diskriminan Fisher dapat diperluas untuk digunakan dalam klasifikasi non-linear melalui trik kernel. Di sini, pengamatan asli secara efektif dipetakan ke dalam ruang non-linear dimensi lebih tinggi. Klasifikasi linear dalam ruang non-linear ini setara dengan klasifikasi non-linear dalam ruang asli. Contoh paling umum dari ini adalah diskriminan Fisher kernel.
Disadur dari: en.wikipedia.org
Teknik Industri
Dipublikasikan oleh Sirattul Istid'raj pada 29 April 2025
Pengenalan pola muncul sebagai seni mengalokasikan kelas ke pengamatan, dilihat dari pola data yang diekstraksi. Namun, hal ini berbeda dari pattern machines (PM), yang, meskipun berpotensi dilengkapi dengan kemampuan serupa, terutama berfungsi untuk membedakan dan menghasilkan pola yang muncul. Dengan aplikasi yang mencakup analisis data statistik, pemrosesan sinyal, dan lainnya, pengenalan pola berakar pada statistik dan rekayasa.
Secara tradisional, sistem pengenalan pola disempurnakan menggunakan data berlabel "pelatihan". Namun, jika tidak ada, algoritme alternatif mengungkap pola laten, menyelaraskan lebih dekat dengan ranah KDD dan penambangan data. Berakar pada teknik, pengenalan pola menggali bidang visi komputer, dengan acara-acara terkemuka seperti Konferensi Visi Komputer dan Pengenalan Pola menjadi bukti pengaruhnya.
Dalam domain pembelajaran mesin, pengenalan pola memerlukan penetapan label ke nilai input. Misalnya, klasifikasi berupaya mengalokasikan setiap masukan ke kelas yang telah ditentukan sebelumnya, seperti membedakan email "spam". Di luar klasifikasi, ini meluas ke regresi, pelabelan urutan, dan penguraian, masing-masing menangani jenis keluaran yang unik.
Algoritme pengenalan pola berusaha keras untuk memberikan respons yang masuk akal di berbagai masukan, memprioritaskan kecocokan yang "paling mungkin" sambil mempertimbangkan varian statistik. Berbeda dengan algoritma pencocokan pola, yang mencari kecocokan yang tepat, pengenalan pola berupaya untuk membedakan pola lagi, mirip dengan pengrajin terampil yang membuat desain rumit dalam kanvas data yang luas.
Ringkasan Pengenalan Pola
Dalam bidang pembelajaran mesin yang luas, pengenalan pola merupakan disiplin fundamental yang didedikasikan untuk penemuan otomatis keteraturan dan struktur dalam data melalui penggunaan algoritma komputer yang canggih. Bidang ini didorong oleh tujuan yang mendalam: untuk memanfaatkan pola yang melekat dalam data dan memanfaatkannya untuk melakukan tugas-tugas seperti mengklasifikasikan instance ke dalam kategori yang berbeda, memungkinkan mesin untuk membuat keputusan yang tepat dan mengungkap wawasan yang tersembunyi.
Pada intinya, pengenalan pola dikategorikan berdasarkan prosedur pembelajaran yang digunakan untuk menghasilkan nilai keluaran. Pembelajaran yang diawasi, sebuah pendekatan yang diadopsi secara luas, bergantung pada rangkaian pelatihan yang dikurasi dengan cermat – kumpulan contoh yang telah diberi label dengan cermat oleh pakar manusia. Data pelatihan ini berfungsi sebagai landasan bagi algoritma pembelajaran untuk membangun sebuah model, memberikan keseimbangan antara secara akurat menangkap pola dalam set pelatihan dan menggeneralisasi secara efektif ke contoh data baru yang belum terlihat.
Sebaliknya, pembelajaran tanpa pengawasan beroperasi tanpa kemewahan data pelatihan berlabel. Sebaliknya, pendekatan ini berupaya untuk mengungkap pola dan struktur inheren yang tersembunyi di dalam data itu sendiri, yang kemudian memungkinkan klasifikasi atau pengelompokan kejadian baru yang benar berdasarkan persamaan atau ketidaksamaan yang melekat pada data tersebut.
Di luar dua paradigma mendasar ini, para peneliti telah mengeksplorasi bidang pembelajaran semi-supervisi yang menarik, yang secara harmonis menggabungkan kekuatan data berlabel dan tidak berlabel, memanfaatkan yang terbaik dari kedua dunia tersebut untuk meningkatkan akurasi dan ketahanan proses pembelajaran.
Algoritme pengenalan pola sering kali mengadopsi pendekatan probabilistik, menggunakan inferensi statistik untuk menentukan label atau kategori yang paling mungkin untuk suatu kejadian tertentu. Algoritme ini tidak hanya menghasilkan label "terbaik" namun juga memberikan ukuran keyakinan, yang didasarkan pada teori probabilitas, menawarkan wawasan berharga dalam proses pengambilan keputusan. Sifat probabilistik ini memberikan banyak keuntungan, termasuk kemampuan untuk abstain ketika tingkat kepercayaan terlalu rendah, integrasi yang lancar ke dalam tugas pembelajaran mesin yang lebih besar, dan mitigasi penyebaran kesalahan.
Inti dari pengenalan pola terletak pada konsep vektor fitur – representasi multidimensi yang merangkum karakteristik penting dari setiap contoh. Vektor-vektor ini dapat dimanipulasi menggunakan teknik matematika yang canggih, seperti menghitung perkalian titik atau sudut antar vektor, mengungkap hubungan rumit dan persamaan yang mendasari proses pengambilan keputusan.
Untuk meningkatkan efektivitas algoritme pengenalan pola, peneliti menggunakan berbagai teknik, termasuk algoritme pemilihan fitur yang memangkas fitur-fitur yang berlebihan atau tidak relevan, dan algoritme ekstraksi fitur yang mengubah vektor fitur berdimensi tinggi menjadi representasi berdimensi lebih rendah, sehingga mengurangi redundansi dan kompleksitas komputasi. .
Dalam lanskap pembelajaran mesin yang terus berkembang, pengenalan pola merupakan disiplin ilmu utama yang memberdayakan mesin untuk membedakan keteraturan dan kekacauan, mengungkap wawasan tersembunyi, dan membuat keputusan yang tepat di berbagai bidang. Saat kita terus mendorong batas-batas kecerdasan buatan, bidang pengenalan pola tidak diragukan lagi akan memainkan peran penting dalam membentuk masa depan sistem cerdas dan kemampuannya untuk menavigasi kompleksitas dunia di sekitar kita.
Memahami Pengenalan Pola: Pendekatan Frekuensitas vs. Bayes
Pengenalan pola menjadi inti dari berbagai teknologi modern, mulai dari filter spam dalam surel hingga perangkat lunak pengenalan wajah. Pada dasarnya, tujuannya adalah untuk memetakan instansi masukan ke label keluaran berdasarkan data yang ada. Namun, pendekatan untuk mencapai hal ini bervariasi secara signifikan, dengan dua metodologi utama: pendekatan frekuensitas dan Bayes.
Dalam pengenalan pola, kita bertujuan untuk mendekati sebuah fungsi tidak diketahui g:X→Y, yang memetakan instansi masukan x∈X ke label keluaran y∈Y. Ini biasanya berdasarkan kumpulan data pelatihan D={(x1,y1),…,(xn,yn)}, di mana setiap pasangan mewakili contoh akurat dari pemetaan. Tantangannya adalah untuk menghasilkan sebuah fungsi h:X→Y, yang mendekati dengan baik pemetaan yang benar gg. Ini melibatkan definisi fungsi kerugian yang mengkuantifikasi perbedaan antara label yang diprediksi dan sebenarnya. Tujuannya kemudian adalah untuk meminimalkan kerugian yang diharapkan atas distribusi probabilitas dari X.
Pendekatan frekuensitas memperlakukan parameter model sebagai tidak diketahui tetapi objektif, mengestimasikannya dari data yang dikumpulkan. Misalnya, dalam analisis diskriminan linear, parameter seperti vektor rata-rata dan matriks kovariansi dihitung dari data. Probabilitas kelas, p(label∣θ)p(label∣θ), juga diestimasi secara empiris dari kumpulan data. Meskipun menggunakan aturan Bayes dalam klasifikasi frekuensitas, metodologi itu sendiri tetap berbeda dari inferensi Bayes.
Statistik Bayes berasal dari membedakan antara pengetahuan 'a priori' dan 'a posteriori', seperti yang dijelaskan dalam filsafat Yunani dan kemudian oleh Kant. Dalam pengklasifikasi pola Bayes, pengguna dapat menentukan probabilitas kelas sebelumnya, p(label∣θ), berdasarkan kepercayaan subjektif mereka. Prioritas ini kemudian dapat digabungkan dengan pengamatan empiris menggunakan distribusi seperti distribusi Beta dan Dirichlet, memungkinkan integrasi yang mulus antara pengetahuan ahli dan data objektif.
Pengklasifikasi pola probabilistik dapat beroperasi dalam kerangka baik frekuensitas maupun Bayes. Sementara pendekatan frekuensitas bergantung pada estimasi objektif parameter model dan probabilitas kelas dari data, pendekatan Bayes memungkinkan untuk menggabungkan prioritas subjektif bersama pengamatan empiris.
Pengenalan Pola: Aplikasi Luas dalam Berbagai Bidang
Pola pengenalan memainkan peran krusial dalam berbagai bidang, terutama dalam ilmu kedokteran di mana sistem diagnosis berbantu komputer (CAD) menggunakan teknologi ini. Selain itu, aplikasi pola pengenalan meluas ke pengenalan ucapan, identifikasi pembicara, klasifikasi teks, dan bahkan pengenalan gambar wajah manusia. Seiring perkembangan teknologi, penggunaan pola pengenalan juga diterapkan dalam pengenalan karakter optik dan ekstraksi informasi dari gambar medis.
Dalam aplikasi praktis, teknologi ini digunakan dalam identifikasi dan otentikasi, seperti pengenalan plat nomor kendaraan, analisis sidik jari, dan deteksi wajah. Di bidang medis, pola pengenalan digunakan untuk skrining kanker, deteksi tumor, dan analisis suara jantung. Tak hanya itu, dalam pertahanan, teknologi ini dimanfaatkan dalam sistem navigasi, pengenalan target, dan teknologi pengenalan bentuk.
Pentingnya pola pengenalan juga terasa dalam mobilitas, dengan sistem bantuan pengemudi canggih dan teknologi kendaraan otonom yang mengandalkan prinsip ini. Di bidang psikologi, pengenalan pola membantu dalam memahami bagaimana manusia mengidentifikasi objek dan memberikan makna terhadapnya. Dari diagnosa medis hingga keamanan dan mobilitas, pola pengenalan menjadi landasan teknologi modern yang mendorong inovasi dan kemajuan di berbagai bidang kehidupan.
Algoritma Pengenalan Pola
Algoritma pengenalan pola bergantung pada jenis keluaran label, apakah pembelajaran diawasi atau tidak, dan apakah algoritma tersebut bersifat statistik atau non-statistik. Algoritma statistik dapat diklasifikasikan sebagai generatif atau diskriminatif.
Metode klasifikasi (metode memprediksi label kategorikal)
Parametrik:
Nonparametrik:
Metode clustering (metode untuk mengklasifikasikan dan memprediksi label kategorikal)
Algoritma pembelajaran ansambel (meta-algoritma yang diawasi untuk menggabungkan beberapa algoritma pembelajaran bersama-sama)
Metode umum untuk memprediksi label (kumpulan) yang terstruktur secara sewenang-wenang
Tidak diawasi:
Metode pelabelan urutan bernilai nyata (memprediksi urutan label bernilai nyata)
Metode regresi (memprediksi label bernilai nyata)
Metode pelabelan urutan (memprediksi urutan label kategorikal)
Disadur dari: en.wikipedia.org/wkipedia.org
Teknik Industri
Dipublikasikan oleh Sirattul Istid'raj pada 29 April 2025
Analisis Data Eksplorasi (EDA) adalah pendekatan penting dalam statistik, yang berfokus pada menggali lebih dalam kumpulan data untuk mengungkap karakteristik utamanya menggunakan berbagai grafik statistik dan metode visualisasi. Meskipun mungkin melibatkan penggunaan model statistik atau tidak, EDA terutama bertujuan untuk mengekstraksi wawasan dari data di luar pemodelan formal, sehingga menawarkan permulaan dari pengujian hipotesis konvensional.
Awalnya diperjuangkan oleh John Tukey sejak tahun 1970an, EDA mendorong para ahli statistik untuk mengeksplorasi data secara menyeluruh, yang berpotensi mengarah pada perumusan hipotesis untuk pengumpulan dan eksperimen data lebih lanjut. Hal ini berbeda dengan Analisis Data Awal (IDA), yang berkonsentrasi lebih sempit pada verifikasi asumsi untuk penyesuaian model dan pengujian hipotesis, serta mengelola nilai yang hilang dan transformasi variabel jika diperlukan. Intinya, EDA mencakup IDA dalam cakupannya yang lebih luas.
Visi Tukey tentang analisis data, yang dimulai pada tahun 1961, menggarisbawahi pentingnya prosedur untuk menganalisis data, menafsirkan hasil, merencanakan pengumpulan data, dan menggunakan teknik statistik untuk meningkatkan presisi dan akurasi analisis. Analisis Data Eksplorasi menawarkan teknik komprehensif untuk meneliti dan memahami karakteristik kumpulan data. Keuntungan signifikannya terletak pada penyediaan representasi visual data pasca-analisis.
Advokasi Tukey untuk EDA mendorong kemajuan dalam komputasi statistik, terutama pengembangan bahasa pemrograman S di Bell Labs. Hal ini mengarah pada terciptanya lingkungan komputasi statistik seperti S-PLUS dan R, yang menawarkan kemampuan visualisasi dinamis yang ditingkatkan. Kemampuan ini memungkinkan ahli statistik untuk mengidentifikasi outlier, tren, dan pola yang memerlukan penyelidikan lebih lanjut.
EDA terkait erat dengan statistik kuat dan statistik nonparametrik, yang bertujuan mengurangi sensitivitas kesimpulan statistik terhadap kesalahan formulasi model. Preferensi Tukey untuk meringkas data numerik menggunakan ringkasan lima angka (minimum, maksimum, median, kuartil) menyoroti ketahanannya terhadap distribusi yang miring atau berekor berat dibandingkan dengan ukuran ringkasan tradisional seperti mean dan deviasi standar.
Integrasi EDA, statistik yang kuat, statistik nonparametrik, dan bahasa pemrograman statistik memfasilitasi pekerjaan para ahli statistik dalam berbagai tantangan ilmiah dan teknik, termasuk fabrikasi semikonduktor dan jaringan komunikasi. Perkembangan statistik ini, yang didorong oleh advokasi Tukey, melengkapi pendekatan pengujian hipotesis statistik tradisional, sehingga membuka jalan bagi pemahaman yang lebih komprehensif tentang kumpulan data yang kompleks.
Pengembangan EDA
Buku "Exploratory Data Analysis" ditulis oleh John W. Tukey pada tahun 1977. Tukey berpendapat bahwa terlalu banyak penekanan dalam statistik ditempatkan pada pengujian hipotesis statistik (analisis data konfirmatif); lebih banyak penekanan diperlukan pada penggunaan data untuk menyarankan hipotesis yang akan diuji. Secara khusus, dia berpendapat bahwa kebingungan antara dua jenis analisis dan penggunaannya pada satu set data yang sama dapat menyebabkan bias sistematis karena masalah yang melekat dalam pengujian hipotesis yang diusulkan oleh data.
Tujuan dari EDA adalah untuk:
Banyak teknik EDA telah diadopsi ke dalam penambangan data. Mereka juga diajarkan kepada siswa muda sebagai cara untuk memperkenalkan mereka pada pemikiran statistik. Ada juga sejumlah alat yang berguna untuk EDA, tetapi EDA lebih ditandai oleh sikap yang diambil daripada teknik tertentu.
Teknik grafis yang umum digunakan dalam EDA adalah:
Reduksi Dimensi:
Teknik kuantitatif yang umum adalah:
Sejarah EDA
Banyak gagasan EDA dapat ditelusuri kembali ke penulis sebelumnya, misalnya: • Francis Galton menekankan pada statistik urutan dan kuantil. • Arthur Lyon Bowley menggunakan pendahulu dari stemplot dan ringkasan lima angka (Bowley sebenarnya menggunakan "ringkasan tujuh angka", termasuk ekstremum, desil dan kuartil, bersama dengan median). • Andrew Ehrenberg merumuskan filosofi reduksi data.
Kursus Open University "Statistics in Society (MDST 242)" mengambil gagasan di atas dan menggabungkannya dengan karya Gottfried Noether, yang memperkenalkan inferensi statistik melalui pelemparan koin dan uji median.
Disadur dari: en.wikipedia.org 
Teknik Industri
Dipublikasikan oleh Anjas Mifta Huda pada 28 April 2025
Definisi daftar istilah dadu
Pendekatan metodis dan disiplin untuk spesifikasi, desain, pengembangan, realisasi, manajemen teknis, operasi, dan pensiun suatu sistem.
Definisi alternatif
Proses rekayasa sistem DoD adalah kumpulan proses manajemen teknis dan proses teknis yang diterapkan melalui siklus hidup akuisisi. Proses manajemen teknis adalah perencanaan teknis, manajemen konfigurasi, manajemen antarmuka, manajemen data teknis, manajemen persyaratan, manajemen risiko, penilaian teknis, dan analisis keputusan. Proses teknisnya adalah definisi kebutuhan pemangku kepentingan, analisis kebutuhan, desain arsitektur, implementasi, integrasi, verifikasi, validasi, dan transisi.
Informasi umum
Model proses rekayasa sistem (SE) Departemen Pertahanan telah direvisi beberapa kali. Model ini berevolusi dari kumpulan proses yang berfokus pada desain menjadi kumpulan dua subset proses, proses manajemen teknis dan proses teknis, seperti yang digambarkan pada Gambar 1 hingga Gambar 4. Evolusi model proses rekayasa sistem DoD telah didasarkan pada sejumlah standar proses rekayasa sistem industri, termasuk
Model proses SE DoD awal
Sebagaimana diilustrasikan oleh Gambar 1, kegiatan rekayasa sistem yang mendasar adalah proses analisis persyaratan, analisis fungsional dan proses alokasi, dan proses sintesis desain-semuanya diimbangi dengan teknik dan alat bantu yang secara kolektif disebut analisis dan kontrol sistem. Kontrol rekayasa sistem digunakan untuk melacak keputusan dan persyaratan, mempertahankan garis dasar teknis, mengelola antarmuka, mengelola risiko, melacak biaya dan jadwal, melacak kinerja teknis, memverifikasi persyaratan yang dipenuhi, dan meninjau / mengaudit kemajuan.

Sumber: dau.edu Gambar 1. Model Proses SE DoD Awal
Input proses terutama terdiri dari kebutuhan, tujuan, persyaratan, dan kendala proyek pelanggan. Masukan dapat mencakup, tetapi tidak terbatas pada, misi, ukuran efektivitas, lingkungan, basis teknologi yang tersedia, persyaratan keluaran dari penerapan proses rekayasa sistem sebelumnya, persyaratan keputusan program, dan persyaratan berdasarkan “pengetahuan perusahaan.”
Proses analisis persyaratan digunakan untuk mengembangkan persyaratan fungsional dan kinerja; yaitu, persyaratan pelanggan diterjemahkan ke dalam seperangkat persyaratan yang mendefinisikan apa yang harus dilakukan oleh sistem dan seberapa baik kinerjanya. Insinyur sistem harus memastikan bahwa persyaratan dapat dimengerti, tidak ambigu, komprehensif, lengkap, dan ringkas.
Fungsi dianalisis dengan menguraikan fungsi tingkat yang lebih tinggi yang diidentifikasi melalui analisis persyaratan menjadi fungsi tingkat yang lebih rendah. Persyaratan kinerja yang terkait dengan tingkat yang lebih tinggi dialokasikan ke fungsi yang lebih rendah. Hasilnya adalah deskripsi produk atau item dalam hal apa yang dilakukannya secara logis dan dalam hal kinerja yang dibutuhkan. Deskripsi ini sering disebut arsitektur fungsional produk atau item. Analisis fungsional dan proses alokasi memungkinkan pemahaman yang lebih baik tentang apa yang harus dilakukan sistem, dengan cara apa sistem dapat melakukannya, dan sampai batas tertentu, prioritas dan konflik yang terkait dengan fungsi tingkat yang lebih rendah. Proses ini memberikan informasi yang penting untuk mengoptimalkan solusi fisik. Alat-alat utama dalam analisis dan alokasi fungsional adalah diagram blok aliran fungsional, analisis garis waktu, dan lembar alokasi persyaratan.
Kinerja analisis fungsional dan alokasi menghasilkan pemahaman yang lebih baik tentang persyaratan dan harus mendorong pertimbangan ulang analisis persyaratan. Setiap fungsi yang diidentifikasi harus dapat ditelusuri kembali ke persyaratan. Proses berulang untuk meninjau kembali analisis kebutuhan sebagai hasil dari analisis fungsional dan alokasi disebut sebagai lingkaran kebutuhan.
Sintesis desain adalah proses mendefinisikan produk atau item dalam hal elemen fisik dan perangkat lunak yang bersama-sama membentuk dan mendefinisikan item tersebut. Hasilnya sering disebut sebagai arsitektur fisik. Setiap bagian harus memenuhi setidaknya satu persyaratan fungsional, dan setiap bagian dapat mendukung banyak fungsi. Arsitektur fisik adalah struktur dasar untuk menghasilkan spesifikasi dan garis dasar.
Mirip dengan lingkaran persyaratan yang dijelaskan di atas, lingkaran desain adalah proses meninjau kembali arsitektur fungsional untuk memverifikasi bahwa desain fisik yang disintesis dapat melakukan fungsi yang diperlukan pada tingkat kinerja yang diperlukan. Lingkaran desain memungkinkan pertimbangan ulang tentang bagaimana sistem akan menjalankan misinya, dan ini membantu mengoptimalkan desain yang disintesis.
Untuk setiap penerapan proses rekayasa sistem, solusi akan dibandingkan dengan persyaratan. Bagian dari proses ini disebut loop verifikasi, atau lebih umum lagi, Verifikasi. Setiap persyaratan di setiap tingkat pengembangan harus dapat diverifikasi. Dokumentasi dasar yang dikembangkan selama proses rekayasa sistem harus menetapkan metode verifikasi untuk setiap persyaratan. Metode verifikasi yang tepat meliputi pemeriksaan, demonstrasi, analisis (termasuk pemodelan dan simulasi), dan pengujian. Pengujian dan evaluasi formal (baik pengembangan maupun operasional) merupakan kontributor penting dalam verifikasi sistem.
Analisis dan pengendalian sistem mencakup kegiatan manajemen teknis yang diperlukan untuk mengukur kemajuan, mengevaluasi dan memilih alternatif, serta mendokumentasikan data dan keputusan. Kegiatan ini berlaku untuk semua langkah dalam proses rekayasa sistem. Tujuan dari analisis dan pengendalian sistem adalah untuk memastikan bahwa:
Output proses tergantung pada tingkat pengembangan. Ini akan mencakup basis data keputusan, sistem atau arsitektur item konfigurasi, dan garis dasar, termasuk spesifikasi, yang sesuai dengan fase pengembangan. Secara umum, ini adalah data apa pun yang menggambarkan atau mengontrol konfigurasi produk atau proses yang diperlukan untuk mengembangkan produk tersebut.
Model proses SE departemen pertahanan tahun 2003
Model proses DoD SE tahun 2003 terdiri dari kategori-kategori yang terdiri dari:

Sumber: dau.edu Gambar 2. Model Proses SE Departemen Pertahanan tahun 2003
Di antara proses-proses teknis, proses pengembangan persyaratan, proses analisis logis dan proses solusi desain secara kolektif disebut proses desain, seperti yang ditunjukkan pada Gambar 2. Proses-proses ini digunakan untuk mendesain produk dari suatu sistem, termasuk produk operasional dan produk pendukung atau pendukung yang diperlukan untuk memproduksi, mendukung, mengoperasikan atau membuang sistem. Proses teknis lainnya secara kolektif disebut proses realisasi. Proses-proses ini digunakan untuk mewujudkan produk-produk sistem ini. Deskripsi dari proses-proses teknis tercantum di bawah ini:
Proses manajemen teknis digunakan untuk mengelola pengembangan produk sistem, termasuk produk pendukung atau pendukung. Proses ini digunakan bersamaan dengan proses teknis. Proses yang terakhir melakukan pekerjaan rekayasa sistem, sementara proses yang pertama memastikan bahwa pekerjaan dilakukan dengan benar. Deskripsi proses manajemen teknis tercantum di bawah ini:
Model proses SE departemen pertahanan tahun 2008
Model proses SE DoD tahun 2008 hanya mengubah nama-nama proses desain dari model sebelumnya, seperti yang digambarkan pada Gambar 3. Proses pengembangan kebutuhan diubah namanya menjadi proses definisi kebutuhan pemangku kepentingan. Proses analisis logis diubah namanya menjadi proses analisis kebutuhan, dan proses solusi desain diubah namanya menjadi proses desain arsitektur.

Sumber: dau.edu Gambar 3. Model Proses SE Dephan tahun 2008

Sumber: dau.edu Gambar 4. Model Proses SE Departemen Pertahanan tahun 2014
Model proses SE DoD tahun 2014 mengubah ilustrasi model sebelumnya, seperti yang digambarkan pada Gambar 4, yang menggabungkan hubungan aktivitas SE utama dan proses SE. Model ini juga mengganti nama rangkaian proses desain menjadi rangkaian proses dekomposisi. Semua proses tetap memiliki definisi yang sama dengan model sebelumnya.
Disadur dari: dau.edu
Teknik Industri
Dipublikasikan oleh Anjas Mifta Huda pada 28 April 2025
Di bidang sains, teknologi informasi, dan pengetahuan, tingkat kesulitan sistem merupakan hal yang sangat penting. Ketika sistem menjadi lebih rumit, metode tradisional untuk memecahkan masalah menjadi tidak efisien. Analisis sistem adalah memeriksa masalah bisnis, mengidentifikasi tujuan dan persyaratannya, dan kemudian merancang solusi yang paling optimal untuk memenuhi kebutuhan tersebut.
Analisis Sistem
Ini adalah langkah pertama dalam setiap pengembangan sistem dan fase kritis di mana para pengembang berkumpul untuk memahami masalah, kebutuhan, dan tujuan proyek.
Beberapa aspek kunci dari analisis sistem adalah:
Contoh:
Sistem Deteksi Penipuan: Mempelajari pola transaksi dan ketidakkonsistenan dalam data keuangan untuk mengembangkan algoritme untuk mendeteksi dan mencegah aktivitas penipuan.
.jpg)
Sumber: geeksforgeeks.org
Analisis sistem (analisis sistem - desain sistem)
Desain sistem
Desain sistem adalah tempat cetak biru proyek dibuat. Hal ini melibatkan transformasi persyaratan yang diidentifikasi dalam fase analisis menjadi solusi visual. Komponen utama dari desain sistem adalah sebagai berikut:
Contoh:
Sistem Manajemen Pendidikan:
-2.jpg)
Sumber: geeksforgeeks.org
Apa yang dimaksud dengan Sistem?
Sistem adalah sekumpulan hal yang bekerja bersama sebagai jaringan yang saling berhubungan untuk mencapai tujuan tertentu. Sekumpulan hal tersebut dapat berupa perangkat keras, perangkat lunak, karyawan, dan masih banyak lagi. Sistem ada di mana-mana di sekitar kita seperti sistem komputer yang memiliki perangkat keras dan perangkat lunak untuk menjalankan fungsi tertentu.
Contoh: Sistem biologis, sistem pendidikan, sistem fisik, dll.
Batasan-batasan dari sebuah Sistem
Setiap sistem bekerja dalam batasan-batasan tertentu yang disebut kendala. Batasan-batasan ini menentukan batas-batas di mana sistem dapat beroperasi. Batasan yang umum termasuk batasan keuangan, batasan teknis, dan batasan waktu, yang penting dalam memandu pengembangan dan pengoperasian program.
Sifat-sifat sistem
Sistem memiliki beberapa sifat utama:
Elemen-elemen sistem
Elemen-elemen dari sebuah sistem (-Analisis Sistem - Desain Sistem)
.jpg)
Sumber: geeksforgeeks.org
Jenis-jenis sistem
Model sistem
Model sistem adalah representasi sistem dunia nyata yang disederhanakan yang membantu kita memahami, menganalisis, dan merancang sistem yang kompleks. Model-model ini merupakan alat penting yang digunakan di berbagai bidang seperti teknik, ilmu komputer, ekonomi, dan biologi untuk mempelajari dan memprediksi perilaku sistem. Model sistem dapat berbentuk visual, matematis, atau konseptual. Model-model ini memberikan wawasan tentang desain program, komunikasi, dan pengembangan. Berikut adalah beberapa jenis model sistem yang umum digunakan: Matematika, Simulasi, Grafik, Fisik, Konseptual.
Kategori Informasi
Dalam konteks sistem, catatan dapat dikategorikan sebagai berikut:
Kesimpulan
Kesimpulannya, analisis dan desain sistem membentuk landasan pengembangan perangkat lunak yang sukses dan pemecahan masalah di berbagai domain. Analisis dan desain sistem adalah proses mendasar yang membantu kita menavigasi kompleksitas sistem modern dan membuat inovasi di dunia yang berubah dengan cepat.
Merasa tersesat di dunia Desain Sistem yang luas? Saatnya untuk bertransformasi! Daftarkan diri Anda dalam Kursus Menguasai Desain Sistem Dari Solusi Tingkat Rendah hingga Tingkat Tinggi - Kursus Langsung dan mulailah perjalanan yang menggembirakan untuk menguasai konsep dan teknik desain sistem secara efisien.
Disadur dari: geeksforgeeks.or