Teknik Industri

Pembelajaran Pohon Keputusan (Decision Tree Learning): Metode Sederhana Namun Kuat untuk Penambangan Data

Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024


Decision tree learning atau Pembelajaran Pohon Keputusan adalah metode pembelajaran yang sering digunakan dalam data mining. Metode ini digunakan untuk membangun model yang mengpredict nilai variabel target berasal dari beberapa variabel input. Decision tree adalah representasi sederhana untuk mengelompokkan contoh. Setiap node dalam tree yang tidak adalah node akhir (leaf) ditandai dengan sebuah input feature. Arcs yang berasal dari node yang ditandai dengan input feature ditandai dengan setiap nilai variabel target atau arc berpindah ke node pembagian terhadap input feature lain. Setiap leaf tree ditandai dengan class atau distribusi kelas, yang menandakan bahwa data set telah dikelompokkan oleh tree ke dalam class tertentu atau distribusi kelas (yang, jika decision tree terbuat dengan baik, berpandangan kepada subkumpulan kelas tertentu).

Tree dibangun dengan cara membagi sumber data, yang merupakan node akar tree, menjadi subkumpulan yang merupakan anak node berikutnya. Pembagian dilakukan berdasarkan setiap set dari aturan pembagian berdasarkan feature pengelompokan. Proses ini dilakukan secara recursive, yang disebut recursive partitioning. Proses ini dilakukan sampai subset pada node memiliki semua sama nilai variabel target atau pembagian tidak menambah nilai pada prediksi. Proses ini disebut top-down induction of decision trees (TDIDT) dan ialah contoh algoritma greedy, yang merupakan strategi yang paling sering digunakan untuk belajar decision trees dari data.

Decision trees dapat juga diterangkan sebagai kombinasi teknologi matematis dan komputer untuk membantu penjelasan, kategorisasi, dan generalisasi data yang diberikan.

Data datang dalam bentuk catatan:

{\displaystyle ({\textbf {x}},Y)=(x_{1},x_{2},x_{3},...,x_{k},Y)}

Variabel terikat, {\displaystyle Y}, adalah variabel target yang coba kita pahami, klasifikasikan, atau generalisasikan. Vektor {\displaystyle {\textbf {x}}} terdiri dari fitur-fiturnya, {\displaystyle x_{1},x_{2},x_{3}} dll., yang digunakan untuk tugas itu.

Metrik Pohon Keputusan (Decision Tree)

Perkiraan Kebenaran Positif: Menyeimbangkan Positif Sejati dan Positif Palsu

Saat menyusun pohon keputusan, penting untuk mengukur keakuratan prediksi positif versus positif palsu. Metrik "Perkiraan Kebenaran Positif" memberikan wawasan tentang seberapa efektif suatu fitur dapat mengidentifikasi contoh positif dalam kumpulan data. Dengan mengurangkan positif palsu dari positif sebenarnya, metrik ini menawarkan perkiraan kemampuan fitur untuk mengklasifikasikan sampel positif dengan benar. Namun, penting untuk diingat bahwa perkiraan ini dapat bervariasi tergantung pada distribusi sampel positif antar fitur.

  • Ketidakmurnian Gini

Pengotor Gini adalah ukuran yang digunakan dalam pohon klasifikasi untuk mengevaluasi homogenitas variabel target dalam subset. Ini mengukur kemungkinan kesalahan klasifikasi elemen yang dipilih secara acak dalam suatu kumpulan berdasarkan distribusi label. Dengan meminimalkan pengotor Gini, algoritma pohon keputusan bertujuan untuk menciptakan node di mana semua kasus masuk dalam satu kategori target, sehingga meningkatkan akurasi prediksi.

  • Perolehan Informasi

Perolehan informasi berfungsi sebagai kriteria penting untuk memilih pemisahan optimal dalam pohon keputusan. Berdasarkan konsep entropi dari teori informasi, perolehan informasi mengukur pengurangan ketidakpastian tentang variabel target yang dicapai dengan pemisahan sebuah node. Dengan memilih pemisahan yang memaksimalkan perolehan informasi, algoritme pohon keputusan memprioritaskan fitur yang menghasilkan node turunan yang lebih konsisten, sehingga pada akhirnya meningkatkan kekuatan prediktif model.

  • Pengurangan Varians 

Jika variabel target bersifat kontinu, pengurangan varians menjadi metrik utama untuk mengevaluasi pemisahan. Diperkenalkan dalam algoritma seperti CART, pengurangan varians mengkuantifikasi pengurangan total varians variabel target karena pemisahan pada node tertentu. Dengan meminimalkan varians, algoritme pohon keputusan secara efektif menangani variabel kontinu, sehingga meningkatkan akurasi model dalam tugas regresi.

  • Ukuran "Kebaikan" 

Ukuran “kebaikan” mewakili fungsi yang bertujuan untuk mengoptimalkan keseimbangan antara kapasitas calon perpecahan untuk menciptakan anak-anak murni dan kemampuannya untuk menciptakan anak-anak yang berukuran sama. Metrik ini, yang digunakan dalam CART, memprioritaskan penciptaan struktur pohon yang seimbang, sehingga meningkatkan konsistensi waktu pengambilan keputusan. Namun, hal ini dapat menyebabkan perpecahan tambahan dibandingkan dengan metrik lain seperti perolehan informasi.

Jenis-Jenis Pohon Keputusan dalam Analisis Data Mining (Decision Tree Learning)

Dalam analisis data mining, pohon keputusan digunakan untuk dua jenis utama pemodelan:

1. Pohon Klasifikasi (Classification Tree Analysis): Ini adalah ketika hasil yang diprediksi adalah kelas (discrete) ke mana data tersebut termasuk.

2. Pohon Regresi (Regression Tree Analysis): Ini adalah ketika hasil yang diprediksi dapat dianggap sebagai angka riil (misalnya, harga rumah atau lama tinggal pasien di rumah sakit).

Penggunaan istilah "classification and regression tree" (CART) merujuk pada salah satu prosedur di atas, yang pertama kali diperkenalkan oleh Breiman dkk. pada tahun 1984. Meskipun pohon yang digunakan untuk regresi dan klasifikasi memiliki beberapa kesamaan, namun juga beberapa perbedaan, seperti prosedur yang digunakan untuk menentukan di mana untuk membagi.

Three different representations of a regression tree of kyphosis dataContoh pohon yang memperkirakan kemungkinan kifosis setelah operasi tulang belakang, berdasarkan usia pasien dan tulang belakang tempat operasi dimulai. Pohon yang sama ditampilkan dalam tiga cara berbeda. Kiri Daun berwarna menunjukkan kemungkinan kifosis setelah operasi tulang belakang, dan persentase pasien pada daun. Tengah Pohon sebagai plot perspektif. Pemandangan udara kanan dari plot tengah. Kemungkinan kifosis setelah operasi lebih tinggi di area yang lebih gelap. (Catatan: Pengobatan kifosis telah mengalami kemajuan pesat sejak kumpulan data yang cukup kecil ini dikumpulkan.

Beberapa teknik, sering disebut sebagai metode ensemble, membangun lebih dari satu pohon keputusan:

- Pohon yang Ditingkatkan (Boosted Trees): Membangun secara bertahap sebuah ensemble dengan melatih setiap contoh baru untuk menekankan pada contoh-contoh pelatihan sebelumnya yang salah dimodelkan. Contoh umumnya adalah AdaBoost. Ini dapat digunakan untuk masalah tipe regresi dan klasifikasi.

- Bootstrap Aggregated (Bagged) Decision Trees: Metode ensemble awal ini membangun beberapa pohon keputusan dengan secara berulang memilih sampel ulang data pelatihan dengan penggantian, dan melakukan voting pada pohon-pohon untuk prediksi konsensus.

- Random Forest Classifier: Merupakan jenis khusus dari bootstrap aggregating.

- Rotation Forest: Di mana setiap pohon keputusan dilatih dengan menerapkan analisis komponen utama (PCA) pada subset acak fitur input.

Salah satu kasus khusus dari pohon keputusan adalah daftar keputusan, yang merupakan pohon keputusan satu sisi, sehingga setiap simpul internal memiliki tepat 1 simpul daun dan tepat 1 simpul internal sebagai anak (kecuali simpul terbawah, yang hanya memiliki satu simpul daun tunggal). Meskipun kurang ekspresif, daftar keputusan lebih mudah dipahami daripada pohon keputusan umum karena kekompakan yang ditambahkan, memungkinkan metode pembelajaran non-greedy dan penggunaan batasan monotonic.

Algoritme Pohon Keputusan Meliputi

Algoritma pohon keputusan yang terkenal meliputi ID3, C4.5, CART, CHAID, MARS, dan Conditional Inference Trees. ID3 dan CART ditemukan secara independen pada waktu yang hampir bersamaan, tetapi mengikuti pendekatan serupa untuk mempelajari pohon keputusan dari tupel pelatihan.

Selain itu, telah diusulkan untuk memanfaatkan konsep teori himpunan fuzzy untuk definisi versi khusus dari pohon keputusan, yang dikenal sebagai Fuzzy Decision Tree (FDT). Dalam klasifikasi fuzzy ini, biasanya, vektor input dikaitkan dengan beberapa kelas, masing-masing dengan nilai kepercayaan yang berbeda.

Dengan demikian, pemahaman tentang berbagai jenis pohon keputusan ini menjadi penting dalam konteks analisis data mining untuk mengoptimalkan prediksi dan pemodelan.

Keuntungan Penggunaan Decision Trees

Salah satu keuntungan utama dari decision trees adalah kemampuannya untuk dipahami dengan mudah. Model-model ini dapat dijelaskan secara singkat kepada orang awam dan bahkan dapat disajikan secara grafis, membuatnya mudah diinterpretasikan.

Selain itu, decision trees juga dapat menangani data numerik maupun kategorikal. Hal ini membedakannya dari beberapa metode lain yang hanya bisa digunakan untuk satu jenis variabel saja.

Decision trees juga memerlukan sedikit persiapan data dibandingkan dengan metode lainnya. Karena dapat menangani prediktor kualitatif, tidak diperlukan pembuatan variabel dummy.

Model decision trees merupakan model "white box" atau "open-box", yang artinya penjelasan mengenai kondisi suatu situasi dapat dijelaskan dengan logika Boolean. Hal ini berbeda dengan model "black box" seperti neural networks, di mana penjelasan untuk hasilnya sulit dipahami. Decision trees juga mampu mengatasi co-linearity dengan baik, terutama dalam metode boosting. Selain itu, feature selection juga sudah terintegrasi di dalamnya, membuatnya efisien dalam penggunaan fitur.

Keterbatasan Penggunaan Decision Trees

Meskipun memiliki banyak keuntungan, decision trees juga memiliki beberapa keterbatasan. Salah satunya adalah kecenderungan untuk menjadi sangat tidak stabil. Perubahan kecil dalam data latih dapat menghasilkan perubahan besar dalam pohon keputusan dan prediksi akhirnya.

Selain itu, pencarian untuk membangun decision tree optimal dapat menjadi masalah yang sulit. Algoritma pembelajaran decision-tree didasarkan pada heuristik seperti algoritma greedy, yang tidak dapat menjamin untuk menghasilkan pohon keputusan yang optimal secara global. Decision trees juga rentan terhadap overfitting, di mana model menjadi terlalu kompleks dan tidak dapat menggeneralisasi dengan baik dari data latih. Oleh karena itu, mekanisme pruning diperlukan untuk menghindari masalah ini.

Implementasi dan Ekstensi

Terdapat banyak perangkat lunak data mining yang menyediakan implementasi dari algoritma decision tree, baik yang open-source maupun berbayar. Contohnya adalah KNIME, Orange, dan scikit-learn untuk yang open-source, serta MATLAB, Microsoft SQL Server, dan RapidMiner untuk yang berbayar. Selain itu, terdapat juga ekstensi dari decision trees seperti decision graphs dan metode pencarian alternatif menggunakan algoritma evolusioner.


Disadur dari: en.wikipedia.org

Selengkapnya
Pembelajaran Pohon Keputusan (Decision Tree Learning): Metode Sederhana Namun Kuat untuk Penambangan Data

Teknik Industri

Pembelajaran Mendalam (Deep Learning): Tinjauan Komprehensif

Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024


Pembelajaran mendalam (Deep Learning) adalah bagian dari pembelajaran mesin yang memanfaatkan jaringan saraf tiruan (JST) atau Artificial Neural Networks (ANN) dengan banyak lapisan untuk mengekstrak fitur tingkat tinggi dari data masukan. Istilah "dalam" mengacu pada penggunaan beberapa lapisan ini, yang memungkinkan jaringan mempelajari representasi data masukan yang semakin abstrak dan komposit. Pembelajaran mendalam telah diterapkan di berbagai bidang, termasuk visi komputer, pengenalan suara, pemrosesan bahasa alami, dan bioinformatika, antara lain untuk mencapai hasil yang sebanding atau melampaui kinerja ahli manusia.

Arsitektur pembelajaran mendalam, seperti jaringan saraf dalam, jaringan kepercayaan mendalam, jaringan saraf berulang, jaringan saraf konvolusional, dan transformator, telah dikembangkan untuk menangani tugas dan tipe data tertentu. Model-model ini terinspirasi oleh pemrosesan informasi dan titik-titik komunikasi terdistribusi dalam sistem biologis, meskipun sifat statis dan simboliknya berbeda dibandingkan dengan otak biologis dinamis dan analog.

Algoritme pembelajaran mendalam menggunakan pendekatan hierarki untuk pembelajaran representasi, di mana setiap level mengubah data masukan menjadi representasi yang lebih abstrak. Misalnya, dalam pengenalan gambar, lapisan bawah dapat mengidentifikasi tepi, sedangkan lapisan atas dapat mengenali konsep seperti angka, huruf, atau wajah. Sistem pembelajaran mendalam dapat mempelajari fitur mana yang ditempatkan secara optimal pada level tertentu, meskipun penyetelan manual tetap diperlukan untuk mendapatkan performa optimal.

Kedalaman sistem pembelajaran mendalam mengacu pada jumlah lapisan yang digunakan untuk mengubah data. Sistem pembelajaran mendalam memiliki kedalaman jalur penugasan kredit (CAP) yang substansial, yang menggambarkan rantai transformasi dari input ke output dan dapat meniru fungsi apa pun. Kedalaman CAP adalah jumlah lapisan tersembunyi ditambah satu untuk jaringan saraf feedforward dan berpotensi tidak terbatas untuk jaringan saraf berulang. Tidak ada batasan yang disepakati secara universal yang memisahkan pembelajaran dangkal dan pembelajaran mendalam, namun sebagian besar peneliti setuju bahwa pembelajaran mendalam melibatkan kedalaman CAP yang lebih tinggi dari 2.

Model pembelajaran mendalam dapat dibangun menggunakan metode serakah lapis demi lapis dan membantu menguraikan abstraksi dan mengidentifikasi fitur mana yang meningkatkan kinerja. Metode pembelajaran mendalam memungkinkan penghapusan rekayasa fitur untuk tugas pembelajaran yang diawasi dengan menerjemahkan data ke dalam representasi perantara yang ringkas dan menghilangkan redundansi dalam representasi.

Algoritme pembelajaran mendalam juga dapat diterapkan pada tugas pembelajaran tanpa pengawasan, yang merupakan manfaat penting karena data yang tidak berlabel lebih banyak jumlahnya daripada data yang diberi label. Contoh struktur mendalam yang dapat dilatih tanpa pengawasan mencakup jaringan kepercayaan yang mendalam.

Pendekatan Universal dan Interpretasi Probabilistik

Jaringan saraf dalam berada di garis depan kecerdasan buatan modern, mendorong inovasi di berbagai bidang. Untuk memahami fungsinya, kita mempelajari dua konsep dasar: teorema pendekatan universal dan interpretasi probabilistik.

Teorema pendekatan universal, yang berakar pada karya perintis peneliti seperti George Cybenko dan Kurt Hornik, menegaskan kemampuan luar biasa dari jaringan saraf feedforward untuk memperkirakan fungsi berkelanjutan. Awalnya ditetapkan untuk jaringan dengan satu lapisan tersembunyi, teorema ini telah berkembang untuk mencakup arsitektur multi-lapisan, bahkan dengan fungsi aktivasi tidak terbatas seperti unit linier yang diperbaiki (ReLU). Penelitian terbaru telah memperluas teorema ini ke jaringan saraf dalam, mengungkapkan bahwa jaringan dengan lebar terbatas tetapi semakin dalam dapat mendekati fungsi apa pun yang dapat diintegrasikan Lebesgue, dalam kondisi tertentu.

Di sisi lain, interpretasi probabilistik jaringan saraf dalam berasal dari domain pembelajaran mesin. Di sini, konsep seperti inferensi, pelatihan, dan pengujian memainkan peran penting. Nonlinier aktivasi dalam jaringan saraf dianggap sebagai fungsi distribusi kumulatif, yang memfasilitasi kerangka probabilistik untuk memahami perilakunya. Interpretasi ini mengarah pada pengembangan teknik regularisasi seperti dropout, meningkatkan kemampuan generalisasi jaringan saraf.

Sebuah Perjalanan Melalui Evolusi Pembelajaran Mendalam (Deep Learning)

Saat kita memulai perjalanan melalui sejarah kecerdasan buatan, kita akan menemukan evolusi pembelajaran mendalam yang menarik, sebuah landasan teknologi modern. Di dalam sejarahnya, terdapat momen-momen penting dan inovasi terobosan yang telah membentuk lanskap AI seperti yang kita kenal sekarang.

Narasi ini terungkap dengan perbedaan antara feedforward neural networks (FNN) dan recurrent neural networks (RNN). Sementara FNN tidak memiliki siklus dalam struktur konektivitasnya, RNN memilikinya, sehingga membuka jalan bagi arsitektur adaptif. Pada tahun 1920-an, Wilhelm Lenz dan Ernst Ising meletakkan fondasi dengan model Ising, sebuah pendahulu dari RNN yang tidak dapat belajar. Maju cepat ke tahun 1972, Shun'ichi Amari merevolusi arsitektur ini, mendorongnya ke ranah pembelajaran, seperti yang dipopulerkan oleh John Hopfield pada tahun 1982. RNN dengan cepat menjadi sangat diperlukan untuk pengenalan suara dan pemrosesan bahasa.

Karya penting Frank Rosenblatt pada tahun 1960-an memperkenalkan multilayer perceptron (MLP), sebuah pendahulu dari sistem deep learning saat ini. Bersamaan dengan itu, istilah "deep learning" muncul pada tahun 1986, menandai dimulainya era baru. Algoritma terobosan Alexey Ivakhnenko dan Lapa pada tahun 1967 meletakkan dasar untuk MLP yang diawasi, dalam, dan maju ke depan, menyiapkan panggung untuk kemajuan selanjutnya.

Di bidang jaringan saraf konvolusi (CNN), Neocognitron Kunihiko Fukushima pada tahun 1980 mengantarkan era baru untuk visi komputer. Pengenalan fungsi aktivasi rectified linear unit (ReLU) semakin mendorong CNN menjadi sorotan, dan menjadi landasan arsitektur deep learning.

Munculnya backpropagation pada tahun 1970 oleh Seppo Linnainmaa merevolusi pelatihan jaringan saraf, memungkinkan pembelajaran yang efisien melalui perambatan kesalahan. Hal ini membuka jalan bagi kemajuan seperti LSTM (memori jangka pendek yang panjang) oleh Sepp Hochreiter pada tahun 1997, yang mengatasi masalah gradien yang menghilang dan memungkinkan tugas pembelajaran mendalam dengan jalur penugasan yang panjang.

Pergantian milenium menjadi saksi kemunculan jaringan saraf tiruan, memperkenalkan konsep keingintahuan buatan dan meletakkan dasar bagi jaringan saraf tiruan generatif (GAN). Inovasi ini merevolusi pembuatan gambar, membuka jalan bagi aplikasi seperti deepfake.

Di bidang perangkat keras, kemajuan dalam GPU memainkan peran penting, mempercepat pelatihan model pembelajaran mendalam dengan urutan yang sangat besar. "Ledakan besar" deep learning di akhir tahun 2000-an menandai titik balik, mendorong deep learning menjadi arus utama.

Mulai dari melampaui kinerja manusia dalam kontes pengenalan gambar hingga mentransformasi industri seperti perawatan kesehatan dan keuangan, deep learning telah meninggalkan jejak yang tak terhapuskan dalam tatanan masyarakat modern. Saat kami merefleksikan perjalanannya, kami merayakan para visioner dan inovator yang pengejaran pengetahuannya yang tiada henti telah mendorong revolusi deep learning, yang membentuk masa depan kecerdasan buatan.

Pembelajaran Mendalam (Deep Learning): Arti dari Jaringan saraf (Neural networks)

Jaringan Syaraf Tiruan (JST) atau Artificial Neural Networks (ANN) adalah jenis sistem komputasi yang meniru struktur dan fungsi jaringan syaraf biologis dalam otak manusia. Sistem ini dirancang untuk mempelajari dan meningkatkan kinerjanya pada tugas-tugas dengan menganalisis contoh, tanpa perlu pemrograman khusus. JST terdiri dari neuron buatan yang terhubung dengan sinapsis, yang dapat mengirimkan sinyal antar neuron. Neuron dan sinapsis memiliki bobot yang dapat disesuaikan selama pembelajaran untuk memperkuat atau memperlemah sinyal yang dikirimkan. ANN disusun dalam beberapa lapisan, dengan setiap lapisan melakukan jenis transformasi yang berbeda pada data input.

Tujuan awal ANN adalah untuk meniru cara otak manusia memproses informasi, tetapi seiring berjalannya waktu, fokusnya telah bergeser ke kemampuan mental tertentu, yang mengarah pada pengembangan teknik seperti backpropagation. ANN telah diterapkan pada berbagai tugas, termasuk visi komputer, pengenalan suara, penerjemahan mesin, penyaringan jaringan sosial, bermain game, dan diagnosis medis.

Deep Neural Networks (DNN) adalah jenis ANN dengan banyak lapisan antara lapisan input dan output. DNN dapat memodelkan hubungan non-linear yang kompleks dan sangat efektif dalam mengenali pola dalam data. Mereka sering digunakan dalam aplikasi seperti pengenalan gambar, pengenalan suara, dan pemrosesan bahasa alami.

Terlepas dari kesuksesan mereka, ANN dan DNN dapat menghadapi tantangan seperti overfitting, di mana jaringan menjadi terlalu terspesialisasi pada data pelatihan dan berkinerja buruk pada data baru, dan waktu komputasi, di mana jaringan membutuhkan waktu terlalu lama untuk melatih atau membuat prediksi. Untuk mengatasi masalah ini, teknik seperti regularisasi, dropout, dan augmentasi data digunakan untuk mencegah overfitting, serta batching dan pemrosesan paralel digunakan untuk mempercepat komputasi.

Kemajuan Perangkat Keras untuk Pembelajaran Mendalam (Deep Learning)

Dalam beberapa tahun terakhir, perpaduan algoritma pembelajaran mesin dengan perangkat keras komputer telah merevolusi bidang pembelajaran mendalam. Kolaborasi ini telah mengarah pada pengembangan metode yang lebih efisien untuk melatih jaringan saraf dalam, yang ditandai dengan banyaknya lapisan unit tersembunyi non-linier dan lapisan keluaran yang luas. Unit pemrosesan grafis (GPU), yang dilengkapi dengan penyempurnaan khusus AI, telah muncul sebagai perangkat keras pilihan untuk melatih proyek AI cloud komersial berskala besar, melampaui unit pemrosesan pusat (CPU) tradisional. Analisis OpenAI menunjukkan peningkatan eksponensial dalam komputasi perangkat keras, yang menggarisbawahi pesatnya pertumbuhan deep learning.

Untuk lebih mempercepat algoritma pembelajaran mendalam, sirkuit elektronik khusus yang disebut prosesor pembelajaran mendalam telah diperkenalkan. Ini termasuk unit pemrosesan saraf (NPU) yang terintegrasi ke dalam ponsel Huawei dan unit pemrosesan tensor (TPU) yang diterapkan di Google Cloud Platform. Selain itu, Cerebras Systems meluncurkan CS-2, sistem khusus yang memanfaatkan Wafer Scale Engine (WSE-2) generasi kedua untuk menangani model pembelajaran mendalam berukuran besar secara efisien.

Menjelajahi cara-cara inovatif, para peneliti telah mengeksplorasi semikonduktor yang sangat tipis sebagai kandidat potensial untuk perangkat keras pembelajaran mendalam yang hemat energi. Eksperimen yang dilakukan pada tahun 2020 menunjukkan kelayakan penggunaan material saluran aktif area besar untuk perangkat logika-dalam-memori berdasarkan transistor efek medan gerbang mengambang (FGFET), yang menjanjikan operasi logika simultan dan penyimpanan data.

Dalam perkembangan inovatif pada tahun 2021, J. Feldmann dkk. mengusulkan akselerator perangkat keras fotonik terintegrasi yang dirancang untuk pemrosesan konvolusional paralel. Memanfaatkan fotonik terintegrasi, sistem ini menawarkan dua keunggulan berbeda: transfer data paralel besar-besaran melalui multiplexing pembagian panjang gelombang dan sisir frekuensi, serta kecepatan modulasi data yang sangat tinggi. Dengan kapasitas untuk mengeksekusi triliunan operasi yang terakumulasi berkali-kali per detik, fotonik terintegrasi menghadirkan solusi menarik untuk aplikasi AI yang intensif data.

Evolusi perangkat keras dalam pembelajaran mendalam menggarisbawahi upaya tanpa henti untuk mencapai efisiensi dan kecepatan, mendorong inovasi dan terobosan dalam kecerdasan buatan. Ketika para peneliti terus mendorong batas-batas kemajuan teknologi, masa depan memiliki potensi besar untuk optimalisasi lebih lanjut dan peningkatan sistem pembelajaran mendalam melalui inovasi perangkat keras.

Pengaplikasian Pembelajaran Mendalam (Deep Learning) di Berbagai Bidang 

Dalam bidang penemuan ilmiah dan kemajuan teknologi, pembelajaran mendalam telah muncul sebagai kekuatan transformatif, merevolusi cara kita mendekati masalah kompleks di berbagai bidang. Dari penemuan obat-obatan hingga aplikasi militer, dari pencitraan medis hingga deteksi penipuan keuangan, algoritma pembelajaran mendalam telah diterapkan untuk mengatasi beberapa tantangan paling mendesak di zaman kita.

Penemuan obat dan toksikologi, misalnya, telah lama terganggu oleh tingginya tingkat kegagalan calon obat dalam proses persetujuan peraturan. Teknik pembelajaran mendalam menawarkan solusi yang menjanjikan dengan memprediksi target biomolekuler, efek di luar target, dan toksisitas obat-obatan potensial serta bahan kimia lingkungan. Alat seperti AtomNet telah berperan penting dalam perancangan obat yang rasional, mengidentifikasi kandidat biomolekul baru untuk penyakit seperti Ebola dan multiple sclerosis.

Dalam manajemen hubungan pelanggan, pembelajaran penguatan mendalam telah digunakan untuk menilai nilai tindakan pemasaran langsung, meningkatkan strategi untuk retensi dan keterlibatan pelanggan. Demikian pula, sistem rekomendasi memanfaatkan pembelajaran mendalam untuk mengekstrak fitur-fitur bermakna untuk rekomendasi konten yang dipersonalisasi, sehingga meningkatkan pengalaman pengguna di berbagai platform.

Di bidang bioinformatika, model pembelajaran mendalam telah digunakan untuk memprediksi anotasi ontologi gen, hubungan fungsi gen, dan bahkan hasil kesehatan berdasarkan data yang dapat dipakai dan catatan kesehatan elektronik. Aplikasi semacam itu tidak hanya memfasilitasi penelitian medis tetapi juga menjanjikan intervensi layanan kesehatan yang dipersonalisasi.

Selain layanan kesehatan, pembelajaran mendalam telah mencapai kemajuan signifikan di berbagai bidang seperti periklanan seluler, restorasi gambar, deteksi penipuan keuangan, dan ilmu material. Misalnya, dalam bidang ilmu material, sistem AI seperti GNoME telah merevolusi penemuan material baru, mempercepat inovasi, dan mengurangi ketergantungan pada eksperimen manual.

Selain itu, teknik pembelajaran mendalam telah dimanfaatkan untuk memecahkan masalah matematika yang kompleks, termasuk persamaan diferensial parsial dan rekonstruksi gambar. Aplikasi ini menunjukkan keserbagunaan dan efektivitas pembelajaran mendalam di berbagai disiplin ilmu.

Menghubungkan Perkembangan Otak dengan Model Komputasi 

Inti dari teori perkembangan dan sistem pembelajaran mendalam terletak pada konsep pengorganisasian diri. Sama seperti otak bayi yang mengatur dirinya sendiri di bawah pengaruh berbagai faktor, model pembelajaran mendalam menggunakan filter berlapis hierarki untuk memproses informasi dan beradaptasi dengan lingkungannya.

  • Menyelidiki Kemungkinan Neurobiologis:

Para peneliti telah mengeksplorasi kemungkinan neurobiologis model pembelajaran mendalam melalui berbagai pendekatan. Meskipun beberapa pihak berfokus pada penyempurnaan algoritme seperti propagasi mundur untuk meningkatkan realisme pemrosesan, pihak lain berpendapat bahwa metode pembelajaran tanpa pengawasan mungkin lebih mencerminkan proses biologis.

  • Analogi dengan Fungsi Otak Manusia:

Meskipun perbandingan sistematis antara jaringan dalam dan organisasi otak manusia sedang berlangsung, beberapa analogi yang mencolok telah dicatat. Komputasi yang dilakukan oleh unit pembelajaran mendalam memiliki kemiripan dengan neuron sebenarnya, dan representasi yang dikembangkan oleh model ini selaras dengan yang diamati dalam sistem visual primata.

Aplikasi Komersial Pembelajaran Mendalam

  • Lab AI Facebook:

Facebook menggunakan algoritme pembelajaran mendalam untuk secara otomatis menandai gambar yang diunggah dengan nama individu, menunjukkan penerapan praktis teknologi ini di platform media sosial.

  • Pikiran Dalam Google:

DeepMind Technologies, anak perusahaan Google, telah mengembangkan sistem canggih yang mampu mempelajari tugas-tugas kompleks, seperti bermain video game Atari dan menguasai permainan kuno Go, yang menunjukkan keserbagunaan pembelajaran mendalam dalam memecahkan beragam tantangan.

  • Kovarian.ai:

Covariant.ai berfokus pada pengintegrasian pembelajaran mendalam ke dalam operasi pabrik, menyoroti potensinya untuk meningkatkan efisiensi dan otomatisasi di lingkungan industri.

  • Inovasi dalam Robotika:

Kolaborasi penelitian seperti Deep TAMER, kolaborasi antara Laboratorium Penelitian Angkatan Darat A.S. dan Universitas Texas di Austin, memanfaatkan pembelajaran mendalam yang memungkinkan robot mempelajari tugas-tugas baru melalui observasi dan interaksi manusia.

Kritik dan Komentar tentang Pembelajaran Mendalam

  • Validasi Teori dan Empiris:

Kritikus berpendapat bahwa metode pembelajaran mendalam tidak memiliki landasan teori yang komprehensif, sehingga sangat bergantung pada validasi empiris daripada kerangka teori yang ketat.

  • Keterbatasan dan Mewujudkan AI yang Kuat:

Pembelajaran mendalam, meskipun bermanfaat, dipandang sebagai batu loncatan untuk mencapai AI yang kuat. Ia masih kekurangan kemampuan untuk merepresentasikan hubungan sebab akibat, melakukan inferensi logis, dan mengintegrasikan pengetahuan abstrak yang penting untuk kecerdasan umum buatan yang sebenarnya.

  • Tantangan dan Pertimbangan Etis:

Permasalahan seperti perilaku bermasalah dalam arsitektur pembelajaran mendalam, kerentanan terhadap ancaman dunia maya, dan kekhawatiran etika terkait pengumpulan data menggarisbawahi perlunya evaluasi kritis dan penerapan teknologi ini secara bertanggung jawab.


Disadur dari: en.wikipedia.org

 

Selengkapnya
Pembelajaran Mendalam (Deep Learning): Tinjauan Komprehensif

Teknik Industri

Kekuatan Pembelajaran Aturan Asosiasi (Association Rule Learning)

Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024


Pembelajaran aturan asosiasi, yang merupakan landasan pembelajaran mesin, menawarkan metode berharga untuk mengungkap hubungan bermakna antar variabel dalam database yang luas. Dengan memanfaatkan ukuran ketertarikan, pendekatan ini bertujuan untuk mengidentifikasi aturan kuat yang menjelaskan hubungan antar item dalam transaksi.

Berasal dari karya Rakesh Agrawal, Tomasz ImieliÅ„ski, dan Arun Swami, aturan asosiasi awalnya dirancang untuk mengungkap pola data transaksi skala besar yang dikumpulkan oleh sistem point-of-sale (POS) di supermarket. Misalnya, aturan seperti "bawang bombay, kentang ⇒ burger" yang diambil dari data penjualan supermarket menunjukkan bahwa pelanggan yang membeli bawang bombay dan kentang secara bersamaan kemungkinan besar juga akan membeli daging hamburger. Wawasan tersebut sangat berharga untuk memandu strategi pemasaran, memberikan informasi dalam pengambilan keputusan mengenai harga promosi, dan mengoptimalkan penempatan produk.

Selain analisis keranjang pasar, aturan asosiasi dapat diterapkan di berbagai bidang seperti penambangan penggunaan web, deteksi intrusi, produksi berkelanjutan, dan bioinformatika. Berbeda dengan sequence mining, pembelajaran aturan asosiasi tidak memprioritaskan urutan item di dalam atau di seluruh transaksi, melainkan berfokus pada mengidentifikasi asosiasi yang signifikan.

Meskipun pembelajaran aturan asosiasi menawarkan potensi besar untuk mengungkap wawasan, kompleksitas algoritme dan parameternya dapat menimbulkan tantangan bagi individu yang tidak memiliki keahlian dalam penambangan data. Memahami dan menafsirkan banyaknya aturan yang dihasilkan oleh algoritme ini dapat menjadi hal yang sulit tanpa pengetahuan khusus.

Definisi Pembelajaran Aturan Asosiasi

Penambangan aturan asosiasi, sebagaimana yang didefinisikan awal oleh Agrawal, Imieliński, dan Swami, memasuki ranah mengungkapkan hubungan bermakna dalam kumpulan data. Pada intinya, metode ini bertujuan untuk mengidentifikasi pola jika-maka antara berbagai item, memberikan wawasan berharga tentang asosiasi yang ada dalam data transaksional.

Pada dasarnya, penambangan aturan asosiasi dimulai dengan seperangkat atribut biner, disebut sebagai item, yang ditunjukkan sebagai {\displaystyle I=\{i_{1},i_{2},\ldots ,i_{n}\}}. Item-item ini mewakili fitur atau karakteristik yang sedang diteliti dalam kumpulan data. Selanjutnya, basis data {\displaystyle D=\{t_{1},t_{2},\ldots ,t_{m}\}} yang terdiri dari transaksi dibentuk, di mana setiap transaksi berisi identifikasi unik dan subset item dari I.

Aturan dalam konteks penambangan aturan asosiasi digambarkan sebagai implikasi dalam bentuk {\displaystyle X\Rightarrow Y}, di mana X dan Y mewakili subset item dari I. Patut dicatat, sesuai dengan definisi oleh Agrawal, Imieliński, dan Swami, sebuah aturan dibentuk antara sebuah set dan satu item tunggal, dilambangkan sebagai {\displaystyle X\Rightarrow i_{j}}​, di mana {\displaystyle i_{j}\in I}.

Setiap aturan terdiri dari dua set item yang berbeda yang dikenal sebagai itemset: bagian pendahuluan (atau sisi kiri, LHS) dilambangkan sebagai X dan konsekuensi (atau sisi kanan, RHS) dilambangkan sebagai Y. Pendahuluan mewakili item yang ditemukan dalam dataset, sementara konsekuensi menandakan item yang ditemukan ketika digabungkan dengan pendahuluan. Diterjemahkan sebagai "jika X maka Y," pernyataan ini menyiratkan bahwa setiap kali pendahuluan X terjadi dalam dataset, konsekuensi Y kemungkinan akan mengikuti.

Proses:
Aturan asosiasi berasal dari kumpulan item, dibuat dengan menganalisis transaksi untuk pola yang sering terjadi. Proses ini melibatkan penentuan Support (frekuensi kemunculan item) dan Confidence (kemungkinan kebenaran aturan). Metrik lainnya, Peningkatan, membandingkan Keyakinan yang diharapkan dan aktual untuk mengukur signifikansi aturan.

Aplikasi:
Penambangan aturan asosiasi dapat diterapkan di berbagai bidang seperti analisis keranjang pasar, prediksi perilaku pelanggan, dan diagnosis medis. Dengan mengungkap korelasi dan kejadian bersama antar kumpulan data, hal ini membantu dalam pengambilan keputusan dan pengenalan pola, seperti yang terlihat dalam dunia kedokteran yang membantu dokter mendiagnosis pasien dengan menganalisis hubungan gejala.

Tantangan:
Meskipun aturan asosiasi menawarkan wawasan, tantangannya mencakup penyesuaian parameter dan relevansi aturan. Menetapkan ambang batas yang tepat untuk Dukungan dan Keyakinan sangatlah penting, karena terlalu banyak aturan dapat mengurangi kinerja dan kemampuan interpretasi algoritma. Kurangnya pemahaman tentang konsep data mining dapat semakin mempersulit analisis.

Ambang batas:
Ambang batas Dukungan dan Keyakinan sangat penting dalam pembuatan aturan, memastikan pemilihan asosiasi yang bermakna. Dengan menetapkan ambang batas minimum, hanya kumpulan item signifikan yang dipertimbangkan, sehingga meningkatkan relevansi aturan yang ditemukan. Interaksi antara Dukungan dan Keyakinan membantu mengidentifikasi korelasi yang kuat dalam kumpulan data.

Konsep Berguna:
Dukungan mengkuantifikasi frekuensi itemset, sementara Confidence mengukur keakuratan aturan. Lift menilai signifikansi aturan relatif terhadap independensi, sementara Conviction mengevaluasi tingkat kesalahan prediksi aturan. Berbagai ukuran ketertarikan melengkapi Keyakinan, membantu dalam pemilihan aturan.

Algoritma:
Beberapa algoritma memfasilitasi penambangan aturan asosiasi, termasuk Apriori, Eclat, dan FP-Growth. Algoritme ini menggunakan strategi yang berbeda, seperti pembuatan kandidat dan struktur berbasis pohon, untuk mengidentifikasi kumpulan item yang sering digunakan secara efisien dan menghasilkan aturan yang bermakna.

Diagram alir kontrol untuk algoritma Apriori

Jenis lain dari Penambangan Aturan Asosiasi

Penambangan aturan asosiasi adalah teknik penambangan data yang populer yang digunakan untuk mengidentifikasi hubungan antara item dalam kumpulan data yang besar. Salah satu cerita yang paling terkenal tentang association rule mining adalah cerita "bir dan popok", yang merupakan sebuah survei yang dilakukan terhadap para pembeli supermarket yang cenderung membeli popok dan bir secara bersamaan. Namun, kebenaran dari cerita ini masih diperdebatkan, dan sering digunakan sebagai contoh bagaimana asosiasi yang tidak terduga dapat ditemukan dalam data sehari-hari.

Ada beberapa jenis association rule mining, termasuk:

 

  • Aturan Asosiasi Multi-Relasi (MRAR): Aturan-aturan ini melibatkan hubungan tidak langsung antar entitas, seperti "mereka yang tinggal di tempat yang dekat dengan kota yang memiliki tipe iklim lembab dan juga berusia di bawah 20 tahun, maka kondisi kesehatannya baik."
  • Pembelajaran himpunan kontras: Bentuk pembelajaran asosiatif ini menggunakan aturan yang berbeda secara bermakna dalam distribusinya di seluruh himpunan bagian.
  • Pembelajaran kelas berbobot: Jenis pembelajaran asosiatif ini memberikan bobot pada kelas-kelas untuk memberikan fokus pada masalah tertentu yang menjadi perhatian konsumen dari hasil penggalian data.
  • Penemuan pola tingkat tinggi: Teknik ini memfasilitasi penangkapan pola tingkat tinggi atau asosiasi peristiwa yang bersifat intrinsik pada data dunia nyata yang kompleks.
  • Penemuan pola K-optimal: Sebuah alternatif dari pendekatan standar untuk pembelajaran aturan asosiasi, yang mengharuskan setiap pola sering muncul dalam data.
  • Perkiraan penambangan Frequent Itemset: Versi santai dari penambangan Frequent Itemset yang memungkinkan beberapa item di beberapa baris menjadi 0.
  • Taksonomi hirarki Generalized Association Rules (hirarki konsep): Jenis penambangan aturan asosiasi ini menggunakan taksonomi hirarkis untuk mengidentifikasi hubungan antar item.
  • Aturan Asosiasi Kuantitatif: Metode ini digunakan untuk data kategorikal dan kuantitatif.
  • Aturan Asosiasi Data Interval: Metode ini melibatkan partisi data ke dalam interval, seperti rentang usia.
  • Penambangan pola berurutan: Teknik ini menemukan urutan yang umum terjadi pada lebih dari minsup (ambang batas dukungan minimum) urutan dalam basis data urutan, di mana minsup ditetapkan oleh pengguna.
  • Pengelompokan Subruang: Jenis khusus pengelompokan data berdimensi tinggi, berdasarkan properti penutupan ke bawah untuk model pengelompokan tertentu.
  • Warmr: Alat yang memungkinkan pembelajaran aturan asosiasi untuk aturan relasional tingkat pertama.


Disadur dari: en.wikipedia.org

Selengkapnya
Kekuatan Pembelajaran Aturan Asosiasi (Association Rule Learning)

Teknik Industri

Pembelajaran Kamus Jarang(Sparse Dictionary Learning): Mengungkap Kekuatan Penemuan Representasi

Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024


Pembelajaran kamus jarang (Sparse Dictionary Learning), juga dikenal sebagai pengkodean jarang atau SDL, adalah teknik yang dirancang untuk mengungkap representasi data masukan yang jarang dengan mengekspresikannya sebagai kombinasi linier dari elemen dasar yang dikenal sebagai atom. Atom-atom ini membentuk sebuah kamus dan tidak harus ortogonal, sehingga memungkinkan untuk mendapatkan rangkaian rentang yang lebih lengkap. Pengaturan ini memungkinkan representasi sinyal dalam dimensi yang lebih tinggi daripada yang diamati, yang mengarah ke atom-atom yang tampaknya berlebihan yang meningkatkan kelangkaan dan fleksibilitas.

Metode ini menemukan aplikasi yang signifikan dalam penginderaan terkompresi atau pemulihan sinyal, di mana sinyal dimensi tinggi dapat direkonstruksi dari beberapa pengukuran linier, asalkan sinyal menunjukkan sparsitas. Berbagai algoritme, seperti basis pursuit dan CoSaMP, membantu dalam pemulihan sinyal setelah diubah menjadi ruang yang jarang menggunakan teknik seperti transformasi wavelet.

Inti dari pembelajaran kamus jarang adalah inferensi kamus dari data masukan itu sendiri. Tidak seperti pendekatan tradisional yang menggunakan kamus yang sudah ditentukan sebelumnya seperti Fourier atau transformasi wavelet, kamus yang dipelajari secara signifikan meningkatkan sparsitas, menemukan aplikasi dalam dekomposisi, kompresi, dan analisis data. Pendekatan ini sangat efektif dalam denoising gambar, klasifikasi, serta pemrosesan video dan audio, dengan aplikasi yang luas dalam kompresi gambar, fusi, dan inpainting.

Dalam bidang pembelajaran mesin, pembelajaran kamus renggang telah muncul sebagai teknik ampuh untuk merepresentasikan data secara ringkas dan efisien. Pendekatan ini bertujuan untuk menemukan kamus D dan representasi R sehingga data masukan X dapat direkonstruksi secara akurat sebagai produk dari D dan R, sekaligus memastikan bahwa representasi R jarang, artinya memiliki sedikit entri bukan nol.

Permasalahan tersebut dapat dirumuskan sebagai masalah optimasi berikut:

argmin {\displaystyle {\underset {\mathbf {D} \in {\mathcal {C}},r_{i}\in \mathbb {R} ^{n}}{\text{argmin}}}\sum _{i=1}^{K}\|x_{i}-\mathbf {D} r_{i}\|_{2}^{2}+\lambda \|r_{i}\|_{0}}

dimana {\displaystyle {\mathcal {C}}\equiv \{\mathbf {D} \in \mathbb {R} ^{d\times n}:\|d_{i}\|_{2}\leq 1\,\,\forall i=1,...,n\}}

Di sini, tujuannya adalah untuk meminimalkan kesalahan rekonstruksi sambil meningkatkan ketersebaran dalam representasi ri melalui "norma" â„“0. Himpunan C membatasi kamus D untuk mencegah atom-atomnya mencapai nilai tinggi yang sewenang-wenang.

Pembelajaran kamus renggang menawarkan beberapa keunggulan dibandingkan metode tradisional. Kamus yang terlalu lengkap, yang jumlah atomnya melebihi dimensi data masukan, memungkinkan representasi yang lebih kaya dan fleksibel. Selain itu, kamus yang dipelajari dapat menghasilkan solusi yang lebih jarang dibandingkan dengan matriks transformasi yang telah ditentukan sebelumnya seperti wavelet atau transformasi Fourier.

Berbagai algoritma telah dikembangkan untuk mengatasi masalah optimasi ini, antara lain Method of Optimal Directions (MOD), K-SVD, Stochastic Gradient Descent, Lagrange Dual Method, dan LASSO. Masing-masing pendekatan memiliki kekuatan dan kelemahannya, beberapa pendekatan lebih efisien untuk data berdimensi rendah sementara pendekatan lain dapat menangani skenario berdimensi tinggi.

Selain itu, teknik pembelajaran kamus online telah diusulkan untuk mengatasi skenario di mana data masukan terlalu besar untuk dimasukkan ke dalam memori atau diterima sebagai aliran. Metode ini memperbarui kamus secara berulang saat data baru tersedia, mengurangi kebutuhan memori dan memungkinkan pembelajaran representasi renggang yang efisien.

Pembelajaran kamus renggang telah diterapkan di berbagai domain, termasuk pemrosesan gambar dan sinyal, visi komputer, dan pembelajaran mesin. Dengan memberikan representasi data yang ringkas dan informatif, ini dapat meningkatkan kinerja tugas-tugas seperti klasifikasi, denoising, dan kompresi.

Seiring dengan berkembangnya bidang pembelajaran mesin, pembelajaran kamus renggang tetap menjadi alat yang ampuh dalam upaya representasi data yang efisien dan efektif, membuka jalan bagi aplikasi yang lebih maju dan canggih.

Aplikasi dalam Pembelajaran Kamus Jarang

Pembelajaran kamus jarang, sebuah teknik yang ampuh dalam pemrosesan sinyal, telah merevolusi berbagai tugas pemrosesan gambar dan video dengan menguraikan sinyal input menjadi beberapa elemen dasar yang dipelajari. Pendekatan inovatif ini memungkinkan hasil yang canggih, khususnya dalam masalah klasifikasi. Dengan membangun kamus khusus untuk setiap kelas, pembelajaran kamus jarang memungkinkan klasifikasi sinyal input berdasarkan representasi yang paling jarang.

Selain itu, pembelajaran kamus jarang menawarkan properti yang berharga untuk denoising sinyal. Dengan mempelajari kamus yang merepresentasikan bagian yang bermakna dari sinyal input secara jarang, noise pada input dapat secara efektif dibedakan, karena biasanya menunjukkan representasi yang lebih jarang.

Aplikasi pembelajaran kamus yang jarang meluas ke berbagai domain, termasuk pemrosesan gambar, video, dan audio, serta sintesis tekstur dan pengelompokan tanpa pengawasan. Evaluasi empiris dengan model Bag-of-Words telah menyoroti keunggulan pengkodean jarang dibandingkan pendekatan lain, terutama dalam tugas pengenalan kategori objek.

Selain dampaknya dalam pemrosesan gambar dan video, pembelajaran kamus memainkan peran penting dalam analisis sinyal medis. Sinyal medis, mulai dari elektroensefalografi (EEG) dan elektrokardiografi (EKG) hingga pencitraan resonansi magnetik (MRI) dan tomografi komputer ultrasound (USCT), mendapat manfaat dari analisis khusus yang dimungkinkan oleh teknik pembelajaran kamus jarang.


Disadur dari: en.wikipedia.org

Selengkapnya
Pembelajaran Kamus Jarang(Sparse Dictionary Learning): Mengungkap Kekuatan Penemuan Representasi

Teknik Industri

Pembelajaran Representasi: Mengungkap Fitur Dari Data Mentah Secara Otomatis

Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024


Dalam ranah pembelajaran mesin yang terus berkembang, salah satu teknik yang telah mendapatkan daya tarik yang signifikan adalah pembelajaran representasi, yang juga dikenal sebagai pembelajaran fitur. Pendekatan ini memberdayakan sistem untuk secara otomatis menemukan representasi yang diperlukan untuk tugas-tugas seperti deteksi fitur atau klasifikasi, langsung dari data mentah. Dengan menghindari kebutuhan untuk rekayasa fitur secara manual, pembelajaran representasi memungkinkan mesin untuk tidak hanya mempelajari fitur tetapi juga memanfaatkannya untuk melakukan tugas-tugas tertentu secara efektif.

Motivasi di balik pembelajaran representasi berasal dari fakta bahwa banyak tugas pembelajaran mesin, seperti klasifikasi, sering kali membutuhkan data input dalam format yang mudah dikomputasi. Namun, sumber data dunia nyata seperti gambar, video, dan data sensor telah terbukti sulit untuk diproses secara algoritmik dengan fitur-fitur tertentu yang telah ditentukan sebelumnya. Pembelajaran representasi menawarkan solusi alternatif dengan memungkinkan penemuan fitur atau representasi tersebut melalui pemeriksaan, tanpa bergantung pada algoritme eksplisit.

Pembelajaran representasi dapat dibagi menjadi tiga kategori utama: terawasi, tidak terawasi, dan mandiri. Dalam pembelajaran representasi yang diawasi, fitur-fitur dipelajari dari data input yang diberi label, memanfaatkan label kebenaran dasar untuk menghasilkan representasi yang akurat. Pembelajaran representasi tanpa pengawasan, di sisi lain, mempelajari fitur dari data yang tidak berlabel dengan menganalisis hubungan antara titik data dalam kumpulan data. Pembelajaran representasi yang diawasi sendiri mengambil pendekatan yang unik dengan membangun pasangan input-label dari setiap titik data, memungkinkan pembelajaran struktur data melalui metode yang diawasi seperti gradient descent, meskipun tidak ada label eksplisit.

Berbagai teknik telah dikembangkan untuk setiap kategori pembelajaran representasi. Pendekatan yang diawasi meliputi pembelajaran kamus, yang merepresentasikan titik data sebagai jumlah tertimbang dari elemen representatif, dan jaringan saraf, yang mempelajari representasi pada lapisan tersembunyi untuk tugas klasifikasi atau regresi selanjutnya. Metode tanpa pengawasan mencakup teknik-teknik seperti pengelompokan K-means, analisis komponen utama (PCA), dan analisis komponen independen (ICA). Selain itu, arsitektur pembelajaran yang mendalam seperti mesin Boltzmann terbatas (RBM) dan pembuat enkode otomatis telah terbukti efektif untuk pembelajaran representasi tanpa pengawasan.

Dalam ranah pembelajaran representasi yang diawasi sendiri, teknik-teknik seperti penyematan kata (misalnya, Word2vec dan BERT) telah mencapai kesuksesan yang luar biasa dalam data teks, sementara metode-metode seperti pembelajaran kontrastif dan pendekatan generatif telah diterapkan pada data gambar, video, audio, dan bahkan data multimodal.

Kekuatan pembelajaran representasi terletak pada kemampuannya untuk secara otomatis mengekstrak fitur-fitur berharga dari data mentah, membuka jalan untuk meningkatkan efisiensi, fleksibilitas, dan penemuan wawasan. Seiring dengan terus berkembangnya bidang ini, pembelajaran representasi memiliki potensi untuk mendorong kemajuan terobosan dalam kecerdasan buatan dan pembelajaran mesin, mendorong pemahaman yang lebih dalam tentang data yang kompleks dan memungkinkan proses pengambilan keputusan yang lebih canggih.


Disadur dari: en.wikipedia.org

Selengkapnya
Pembelajaran Representasi: Mengungkap Fitur Dari Data Mentah Secara Otomatis

Teknik Industri

Mempelajari Perilaku Optimal dengan Reinforcement Learning

Dipublikasikan oleh Muhammad Ilham Maulana pada 03 April 2024


Reinforcement learning (RL) adalah area interdisipliner dalam pembelajaran mesin dan kontrol optimal yang berfokus pada bagaimana agen cerdas seharusnya mengambil tindakan dalam lingkungan dinamis untuk memaksimalkan penghargaan (reward) kumulatif. Reinforcement learning merupakan salah satu dari tiga paradigma utama pembelajaran mesin, bersama dengan pembelajaran terbimbing (supervised learning) dan pembelajaran tanpa pengawasan (unsupervised learning).

Berbeda dengan pembelajaran terbimbing, Reinforcement Learning tidak memerlukan pasangan input/output berlabel untuk dihadirkan, dan tidak memerlukan tindakan suboptimal untuk dikoreksi secara eksplisit. Fokusnya adalah menemukan keseimbangan antara eksplorasi (wilayah yang belum dipetakan) dan eksploitasi (pengetahuan saat ini) dengan tujuan memaksimalkan penghargaan jangka panjang, yang mungkin memiliki umpan balik yang tidak lengkap atau tertunda.

Lingkungan Reinforcement Learning biasanya dinyatakan dalam bentuk Markov Decision Process (MDP), karena banyak algoritma Reinforcement Learning untuk konteks ini menggunakan teknik pemrograman dinamis. Perbedaan utama antara metode pemrograman dinamis klasik dan algoritma Reinforcement Learning adalah bahwa yang terakhir tidak mengasumsikan pengetahuan model matematika yang tepat dari MDP dan menargetkan MDP besar di mana metode yang tepat menjadi tidak layak.

Reinforcement Learning diaplikasikan secara sukses pada berbagai masalah, termasuk operasi penyimpanan energi, kontrol robot, pengiriman generator fotovoltaik, permainan papan seperti backgammon, catur, Go (AlphaGo), dan sistem mengemudi otonom. Dua elemen yang membuat Reinforcement Learning powerful adalah penggunaan sampel untuk mengoptimalkan kinerja dan penggunaan pendekatan fungsi untuk menangani lingkungan besar.

Kerangka umum skenario Reinforcement Learning (RL): seorang agen mengambil tindakan dalam suatu lingkungan, yang diinterpretasikan menjadi hadiah dan representasi negara, yang kemudian dimasukkan kembali ke dalam agen.

Dalam RL, dilema eksplorasi vs eksploitasi telah dipelajari secara mendalam, terutama melalui masalah multi-armed bandit dan untuk ruang keadaan hingga MDP. Reinforcement Learning memerlukan mekanisme eksplorasi yang cerdik, karena memilih tindakan secara acak tanpa mempertimbangkan distribusi probabilitas yang diperkirakan menunjukkan kinerja yang buruk. Metode seperti ε-greedy digunakan untuk keseimbangan eksplorasi-eksploitasi, di mana dengan probabilitas 1-ε, eksploitasi dipilih (tindakan yang diyakini terbaik), dan dengan probabilitas ε, eksplorasi dipilih (tindakan dipilih secara acak).

Reinforcement Learning menawarkan pendekatan yang menarik untuk mempelajari perilaku optimal dalam lingkungan yang dinamis dan kompleks, di mana penghargaan jangka panjang harus dipertimbangkan. Dengan kemampuannya dalam mengoptimalkan kinerja dari sampel dan menangani lingkungan besar melalui pendekatan fungsi, Reinforcement Learning terus menjadi area penelitian yang penting dalam kecerdasan buatan dan memiliki banyak aplikasi praktis dalam berbagai domain.

Algoritma untuk Kontrol Pembelajaran 

Dalam ranah pembelajaran mesin, khususnya dalam konteks kontrol, algoritme memainkan peran penting dalam menguraikan tindakan terbaik untuk memaksimalkan imbalan kumulatif. Bahkan ketika kita mengasumsikan bahwa keadaan tersebut dapat diamati, tantangannya terletak pada pemanfaatan pengalaman masa lalu untuk menentukan tindakan mana yang menghasilkan imbalan yang lebih tinggi dari waktu ke waktu.

  • Optimalitas: Jalan Menuju Efisiensi

Inti dari pembelajaran kontrol terletak pada gagasan optimalitas, di mana proses pengambilan keputusan agen dirangkum dalam sebuah kebijakan. Sebuah kebijakan berfungsi sebagai peta yang menentukan probabilitas pemilihan tindakan tertentu dalam keadaan tertentu. Melalui kebijakan, kita menavigasi lanskap tindakan dan keadaan yang kompleks untuk mengoptimalkan imbalan.

  • Fungsi Nilai-Negara: Mengukur Kelayakan

Untuk mengukur nilai dari berada dalam kondisi tertentu, kami menggunakan fungsi nilai keadaan. Fungsi ini memperkirakan pengembalian diskonto yang diharapkan mulai dari keadaan tertentu dan mengikuti kebijakan yang ditentukan. Pada dasarnya, fungsi ini memberikan wawasan tentang seberapa menguntungkan suatu keadaan dalam hal mencapai hasil yang diinginkan.

  • Pencarian Efisiensi: Brute Force dan Selanjutnya

Perjalanan menuju kebijakan yang optimal sering kali dimulai dengan metode brute force, di mana kami dengan cermat mengeksplorasi berbagai kebijakan dan sampel pengembalian untuk melihat jalur yang paling bermanfaat. Namun, banyaknya jumlah kebijakan potensial ditambah dengan varians dalam pengembalian menimbulkan tantangan yang signifikan.

  • Pendekatan Fungsi Nilai: Menavigasi Medan

Pendekatan fungsi nilai menawarkan kerangka kerja terstruktur untuk menavigasi lanskap kebijakan. Dengan mempertahankan estimasi imbal hasil yang diharapkan, metode-metode ini berusaha mengidentifikasi jalur yang paling menjanjikan untuk memaksimalkan imbalan. Melalui iterasi dan penyempurnaan, metode-metode ini semakin mendekati solusi yang optimal.

  • Metode Perbedaan Temporal: Belajar dari Pengalaman

Metode perbedaan temporal, yang berakar pada persamaan Bellman rekursif, menawarkan pendekatan yang bernuansa belajar dari pengalaman. Dengan memadukan wawasan dari transisi masa lalu dengan prediksi ke depan, metode ini mengadaptasi dan menyempurnakan kebijakan dari waktu ke waktu, mengurangi dampak dari pengembalian yang berisik.

  • Perkiraan Fungsi: Menjembatani Kesenjangan

Metode pendekatan fungsi menjembatani kesenjangan antara teori dan praktik dengan memanfaatkan pemetaan linier untuk memperkirakan nilai tindakan. Metode-metode ini menawarkan skalabilitas dan efisiensi, sehingga sangat berharga dalam menangani ruang aksi-negara yang besar.

  • Pencarian Kebijakan Langsung: Menelusuri Ruang Kebijakan

Metode pencarian kebijakan langsung menghindari pendekatan fungsi nilai tradisional dan lebih memilih untuk menjelajahi ruang kebijakan secara langsung. Dengan memanfaatkan teknik berbasis gradien atau bebas gradien, metode-metode ini menawarkan perangkat serbaguna untuk menavigasi lanskap keputusan yang kompleks.

  • Algoritme Berbasis Model: Memanfaatkan Kekuatan Prediksi

Algoritme berbasis model memanfaatkan model prediktif dari proses pengambilan keputusan untuk meningkatkan efisiensi pembelajaran. Dengan menyempurnakan model-model ini secara berulang, mereka menawarkan kerangka kerja terstruktur untuk memperbarui perilaku dan mengoptimalkan hasil.

Teori Algoritme Pembelajaran Kontrol yang Efisien

Dalam mengejar algoritme pembelajaran kontrol yang efisien, memahami interaksi antara eksplorasi, eksploitasi, dan penyempurnaan kebijakan adalah hal yang terpenting. Ketika kita mengungkap seluk-beluk pengambilan keputusan di lingkungan yang dinamis, algoritme ini berfungsi sebagai suar pemandu, menerangi jalan menuju strategi kontrol yang optimal.


Disadur dari: en.wikipedia.org 

Selengkapnya
Mempelajari Perilaku Optimal dengan Reinforcement Learning
« First Previous page 3 of 12 Next Last »