Anda di halaman 1dari 13

DECISION MAKING TOOLS Force Field Analysis and Decision Tree Learning

MAKALAH disusun untuk memenuhi tugas mata kuliah Pengantar Manajemen

disusun oleh Ayu Diah Aryani Sunaryo 2113010

JURUSAN MANAJEMEN INFORMATIKA POLITEKNIK POS INDONESIA BANDUNG 2011

Force Field Analysis


Analyzing the pressures for and against change

iStockphoto Force Field Analysis adalah teknik yang berguna untuk melihat semua kekuatan untuk dan melawan keputusan. khusus menimbang pro Akibatnya, itu adalah metode dan kontra.

Force Field Analysis adalah teknik yang berguna untuk melihat semua kekuatan untuk dan melawan rencana. Ini membantu Anda untuk mempertimbangkan pentingnya faktor-faktor ini dan memutuskan apakah rencana bernilai pelaksana. Di mana Anda telah memutuskan untuk melaksanakan suatu rencana, Analisa Lapangan Angkatan membantu Anda mengidentifikasi perubahan yang Anda bisa untuk memperbaikinya. Dengan melakukan analisis. Anda dapat merencanakan untuk memperkuat kekuatan pendukung keputusan, dan mengurangi dampak dari oposisi untuk itu. Sebagai contoh, bayangkan bahwa Anda adalah seorang manajer memutuskan apakah akan memasang peralatan di pabrik manufaktur baru Anda.

Anda mungkin menyusun analisis medan kekuatan seperti di Gambar 1:

: Setelah Anda telah melakukan analisis, Anda dapat memutuskan apakah proyek Anda adalah layak. Dalam contoh di atas, Anda mungkin awalnya mempertanyakan apakah layak akan maju dengan rencana. Dimana Anda telah memutuskan untuk melaksanakan proyek, Force Field Analysis dapat membantu Anda untuk mengetahui bagaimana meningkatkan probabilitas keberhasilan.

Di sini Anda memiliki dua pilihan: * Untuk mengurangi kekuatan pasukan menentang proyek. * Untuk meningkatkan kekuatan mendorong proyek. Seringkali solusi yang paling elegan adalah yang pertama hanya mencoba untuk memaksa perubahan melalui dapat menyebabkan masalah sendiri. Orang bisa tidak kooperatif jika perubahan dipaksakan pada mereka. Jika Anda harus melaksanakan proyek dalam contoh di atas, analisis mungkin menyarankan beberapa perubahan pada rencana awal: o Dengan pelatihan staf (kenaikan biaya dengan 1) Anda bisa menghilangkan rasa takut teknologi (mengurangi rasa takut dengan 2) o Ini akan berguna untuk menunjukkan bahwa perubahan staf diperlukan untuk kelangsungan hidup bisnis (kekuatan baru dalam mendukung, +2) o Staf dapat ditunjukkan bahwa mesin-mesin baru akan memperkenalkan keragaman dan minat untuk pekerjaan mereka (yang baru berlaku, +1) o o Anda bisa menaikkan gaji untuk mencerminkan produktivitas baru (biaya +1, kehilangan lembur -2) Mesin Sedikit berbeda dengan filter untuk menghilangkan polusi dapat diinstal (dampak lingkungan -1) Perubahan ini akan ayunan keseimbangan dari 11:10 (terhadap

rencana), untuk 8:13 (dalam mendukung rencana).

Decision tree learning


Dari Wikipedia, ensiklopedia This article is about decision trees in machine learning. For the use of the term in decision analysis, see Decision tree.

Decision tree learning, yang digunakan dalam statistik, data mining dan pembelajaran mesin, menggunakan decision tree sebagai model prediktif yang memetakan pengamatan tentang item ke kesimpulan tentang nilai target item. Nama-nama yang lebih deskriptif untuk model pohon seperti itu klasifikasi pohon atau pohon regresi. Dalam struktur pohon, daun mewakili label kelas dan cabang merupakan konjungsi fitur yang mengarah ke labellabel kelas. Dalam analisis keputusan, pohon keputusan dapat digunakan untuk secara visual dan eksplisit merupakan keputusan dan pengambilan keputusan. Dalam data mining, pohon keputusan menggambarkan data tetapi tidak keputusan, melainkan pohon klasifikasi yang dihasilkan dapat menjadi masukan untuk pengambilan keputusan. Halaman ini berkaitan dengan pohon keputusan dalam data mining.

UMUM

Sebuah pohon menunjukkan kelangsungan hidup penumpang di Titanic ("sibsp" adalah jumlah pasangan atau saudara kapal). Angka-angka di bawah daun menunjukkan probabilitas kelangsungan hidup dan persentase pengamatan di daun.

Decision tree learning adalah metode yang umum digunakan dalam data mining. Tujuannya adalah untuk menciptakan sebuah model yang memprediksi nilai variabel target yang didasarkan pada beberapa variabel input. Contoh ditunjukkan di sebelah kanan. Setiap node interior sesuai dengan salah satu variabel masukan, ada ujung-ujungnya untuk anak-anak untuk masing-masing nilai yang mungkin dari variabel masukan. Daun masing-masing mewakili nilai dari variabel target yang diberikan nilai dari variabel input diwakili oleh jalan dari akar ke daun.

Sebuah pohon dapat "belajar" dengan memisahkan sumber ditetapkan menjadi himpunan bagian berdasarkan tes nilai atribut. Proses ini diulang pada setiap bagian yang diturunkan secara rekursif disebut partisi rekursif. Rekursi selesai ketika subset pada node semua memiliki nilai yang sama dari variabel target, atau ketika tidak lagi membelah menambah nilai dengan prediksi. Dalam data mining, pohon dapat digambarkan juga sebagai kombinasi teknik matematika dan komputasi untuk membantu deskripsi, kategorisasi dan generalisasi dari himpunan data. Data yang berasal dalam catatan dalam bentuk:

Variabel dependen, Y, adalah variabel target yang kita mencoba untuk memahami, mengklasifikasikan atau generalisasi. X vektor terdiri dari variabel input, x1, x2, x3 dll, yang digunakan untuk tugas itu.

Jenis

Decision trees digunakan dalam data mining terdiri dari dua jenis utama: Klasifikasi pohon analisis adalah ketika hasil prediksi kelas data yang dimiliki. Regresi analisis pohon adalah ketika hasil prediksi dapat dianggap sebagai bilangan real (misalnya harga rumah, atau panjang pasien tinggal di rumah sakit).

Klasifikasi Classification And Regression Tree (CART) analisis adalah istilah umum yang digunakan untuk merujuk kepada kedua prosedur di atas, pertama kali diperkenalkan oleh Breiman dkk . Pohon yang digunakan untuk regresi dan pohon digunakan untuk klasifikasi memiliki beberapa kesamaan . Tetapi juga beberapa perbedaan, seperti prosedur yang digunakan untuk menentukan di mana untuk membagi. Beberapa teknik menggunakan lebih dari satu pohon keputusan untuk analisis mereka: Sebuah classifier Hutan Acak menggunakan sejumlah pohon keputusan, dalam rangka meningkatkan tingkat klasifikasi. Pohon Didorong dapat digunakan untuk masalah regresi-jenis dan klasifikasi tipe. Rotasi hutan - di mana setiap pohon keputusan adalah dilatih dengan terlebih dahulu menerapkan analisis komponen utama (PCA) pada subset acak dari fitur masukan.

Ada banyak decision-tree spesifik algoritma. Yang penting termasuk:

Algoritma ID3 Algoritma C4.5 Chi-squared Detector Interaksi Otomatis (CHAID). Melakukan multi-level split ketika menghitung pohon klasifikasi. MARS: meluas pohon keputusan untuk lebih menangani data numerik

Formula
Algoritma yang digunakan untuk membangun pohon keputusan biasanya bekerja atas-bawah dengan memilih variabel pada setiap langkah yang adalah variabel terbaik berikutnya untuk digunakan dalam pemisahan set item . "Terbaik" didefinisikan oleh seberapa baik variabel split set ke himpunan bagian homogen yang memiliki nilai yang sama dari variabel target. Algoritma yang berbeda menggunakan formula yang berbeda untuk mengukur "terbaik". Bagian ini menyajikan beberapa formula yang paling umum. Formula ini diterapkan untuk setiap bagian kandidat, dan nilai-nilai yang dihasilkan digabungkan (misalnya, rata-rata) untuk menyediakan ukuran kualitas perpecahan. Gini impurity Digunakan oleh algoritma CART, Gini impurity adalah ukuran dari seberapa sering elemen yang dipilih secara acak dari set label akan

salah jika secara acak diberi label menurut distribusi label di subset. Gini impurity dapat dihitung dengan menjumlahkan probabilitas dari setiap item yang dipilih kali kemungkinan kesalahan dalam mengkategorikan bahwa barang. Mencapai minimum (nol) ketika semua kasus di musim gugur simpul ke dalam kategori target tunggal.U Untuk menghitung Gini impurity untuk satu set item, misalkan y mengambil nilai dalam {1, 2, ..., m}, dan biarkan fi = fraksi item berlabel dengan nilai i di set.

Informasi keuntungan Digunakan oleh algoritma pohon generasi ID3, C4.5 dan C5.0. Mendapatkan informasi didasarkan pada konsep entropi yang digunakan dalam teori informasi.

Keuntungan Decision tree

Di antara metode penambangan data lain, pohon keputusan memiliki berbagai keuntungan: o Sederhana untuk memahami dan menafsirkan. Orang-orang dapat memahami model pohon keputusan setelah penjelasan singkat. o Membutuhkan sedikit persiapan data. Teknik lainnya sering membutuhkan normalisasi data, variabel dummy perlu diciptakan dan nilai-nilai kosong untuk dihapus. o Mampu menangani baik data numerik dan kategoris. Teknik lain biasanya khusus dalam menganalisis dataset yang hanya memiliki satu jenis variabel. Ex: aturan relasi dapat digunakan hanya dengan variabel nominal sementara jaringan saraf dapat digunakan hanya dengan variabel numerik. o Menggunakan model kotak putih. Jika situasi tertentu yang diamati dalam model penjelasan atas kondisi ini mudah dijelaskan oleh logika boolean. Sebuah contoh dari model kotak hitam adalah jaringan syaraf tiruan sejak penjelasan untuk hasil ini sulit dipahami. o Kemungkinan statistik. untuk memvalidasi model untuk menggunakan uji Yang memungkinkan memperhitungkan

keandalan model. o Kuat. Berkinerja baik bahkan jika asumsi-asumsi yang agak dilanggar dihasilkan. o Melakukan baik dengan data yang besar dalam waktu singkat. Sejumlah besar data dapat dianalisis dengan menggunakan sumber daya komputasi standar. oleh model yang benar dari mana data yang

Keterbatasan Decision tree

Masalah pembelajaran pohon keputusan yang optimal

dikenal sebagai NP- complete dalam beberapa aspek optimal dan bahkan untuk konsep sederhana . Akibatnya, pohon-keputusan praktis belajar algoritma didasarkan pada algoritma heuristik seperti serakah algoritma di mana keputusan dibuat lokal yang optimal di setiap node. Algoritma tersebut tidak dapat menjamin untuk mengembalikan pohon keputusan global yang optimal.
o

Keputusan-pohon pelajar dapat menciptakan lebih-kompleks pohon yang tidak menggeneralisasi data dengan baik. Hal ini disebut overfitting . Mekanisme seperti pemangkasan diperlukan untuk menghindari masalah ini.

o Ada konsep yang sulit untuk belajar karena pohon keputusan tidak mengungkapkan dengan mudah, seperti masalah XOR, paritas atau multiplexer. Dalam kasus tersebut, pohon keputusan menjadi prohibitively besar. Pendekatan untuk memecahkan masalah melibatkan baik perubahan representasi dari domain masalah (dikenal sebagai propositionalisation) atau dengan menggunakan algoritma pembelajaran berdasarkan representasi yang lebih ekspresif (seperti belajar pemrograman relasional statistik atau logika induktif).
o

Untuk data termasuk variabel kategori dengan nomor yang berbeda tingkat, informasi keuntungan dalam pohon keputusan yang bias mendukung atribut-atribut dengan tingkat yang lebih.

Grafik Keputusan
Dalam

Decision tree,

semua jalur dari node akar ke simpul

daun melanjutkan dengan cara bersama, atau DAN. Dalam grafik keputusan, adalah mungkin untuk menggunakan disjunctions (OR) untuk bergabung

dengan dua jalur lebih bersama-sama menggunakan Length Pesan Minimum (MML).Keputusan grafik telah diperpanjang untuk memungkinkan atribut baru yang sebelumnya tak tertulis yang harus dipelajari dan digunakan secara dinamis. di tempat yang berbeda dalam grafik. Hasil lebih umum skema pengkodean dalam akurasi prediksi yang lebih baik dan log-rugi penilaian probabilistik. Secara umum, grafik keputusan menyimpulkan model dengan daun kurang dari pohon keputusan.

Anda mungkin juga menyukai