(ML-Agents)
00:00 What is Machine Learning, ML-Agents
halo di sana saya monyet kode Anda dan mari kita belajar bagaimana menggunakan
pembelajaran mesin dan agen ml dalamkesatuan, ini adalah toolkit yang sangat kuat yang
Ini membantu Anda memecahkan banyak masalah yang tidak mungkin dipecahkan saat
menggunakan aplikasiklasik, ada potensi besar dalam toolkit ini, jadi Anda harus tahu cara
menggunakannya sehingga Anda tahu bagaimana hal itu dapat membantu Anda dan kapan
harus mendaftar, ini adalah video yangpanjang, tetapi ini adalah satu-satunya video yang
Anda butuhkan untuk belajar bagaimana memulai bekerja dengan pembelajaran mesin dalam
kesatuan, kita akan mulai sepenuhnya dari awal dan melalui seluruh proses instalasi,
kemudian belajar bagaimana menggunakannya dengan menyiapkan adegan untuk melatih ai
dan akhirnya lihat hasilnya untuk melihat ai beraksi menggunakan model otak terlatihkami,
jadi pastikan Anda menonton video sampai akhir untuk memahami seluruh proses,
Video ini dimaksudkan untuk membantu Anda memulai dan setelahmenontonnya, pergi
periksa tautan daftar putar dalam deskripsi di mana saya akan menambahkan video yang
dalamkesatuan, misalnya saat ini saya sedang mengerjakan kasus penggunaan pertandingan
sekarang cara kerja pembelajaran mesin dalam kesatuan adalah melalui toolkit agen ml yang
dan kemudian Anda memiliki paket ml agent c sharp yang memungkinkan Anda menentukan
data yang Anda masukkan ke dalam algoritma serta menggunakan otak yangdihasilkan, jadi
mari kita melalui seluruh proses itu mulai dari awal, pertama di sini adalah halaman github
ada tautan dalamdeskripsi, Anda dapat menemukan banyak dokumentasi di sini sehingga
pasti memberikan tampilan, Anda memiliki readme cepat berbicara tentang bagaimana
semuanya bekerja semua fitur rilis dokumentasi dan sebagainya, Anda punya folder dokumen
di mana Anda memiliki semua dokumentasi sehingga ton topik pada instalasi mulai membuat
beberapa lingkungan dan sebagainya, dan juga memiliki banyak contoh mengagumkan yang
dapat Anda jelajahi untuk melihat cara kerjanya, sekarang hal pertama yang perlu kita
sini di situs web python saya akan melanjutkan dan mengunduh 3.7.9, sekali lagi jika Anda
menonton ini di masa depan pastikan Anda memeriksa dokumen resmi untuk melihat versi
jadi silakan hanya men-download danmenginstal, itu setelah menginstal python membuka
command prompt, jadi cukup klik pada tombol start dan ketik cmd, jadi ini dia dan sekarang
sebenarnya ada satu hal unik tentang windows 10,yang secara teori Anda harus dapat
namun jika Anda melakukannya di sini pada windows 10 itu membuka toko microsoft bukan
benar-benar menjalankanpython, jadi jika Anda melihat perilaku ini solusinya adalah bukan
python hanya mengetik py, jadi di sini bukan python hanya py, dan saya tekan masuk dan di
dan di sini Anda dapat memverifikasi bahwa pertama-tama python sedang berjalan dan Anda
dapat memverifikasi Bahwa Anda memiliki versi yang benar yang dalam hal ini 3.7.9, oke
sejauh ini sangat baik, sekarang mari kita keluar daripython baik-baik saja kembali di baris
perintah, sekarang langkah selanjutnya adalah kita perlu mengubah direktori untuk pergi ke
jadi di sini adalah proyek persatuan yang akan saya gunakan jadi silakan salin seluruhjalur,
dan pada command prompt hanya mengubah direktori ke direktori itu, oke sekarang di sini
apa yang akan kita lakukan adalah menciptakan lingkungan virtual python, ini akan
membantu kita dengan menjaga semua proyek kita terpisah sehingga setiap lingkungan
artinya kita dapat memiliki beberapa proyek di mesin yang sama masing-masing
menggunakan paket python merekasendiri, dan mereka tidak akan menyebabkan konflik satu
sama lain, jadi sekali lagi pertama-tama masuk ke direktori proyek unity Anda, dan kemudian
berarti kita akan menjalankan modul dan yang ingin kita jalankan disebut vnv untuk
menciptakan lingkunganvirtual, dan kemudian setelah itu ini membutuhkan nama folder di
mana lingkungan tidak akandibuat, jadi jaga saja hal-hal yang bagus dan terorganisir dan
berikan nama yang sama persis jadi vnv, jadi ini akan menciptakan lingkungan virtual di
sekarang jika Anda berada di linux atau mac perintah yang sedikit berbeda jadi periksa
dokumenresmi, dan sekali lagi seperti yang saya katakan sebelumnya jika Anda memiliki
masalah dengan python tidak berjalan ketika Anda mengetik python, maka di sini bukan
python hanya mengetik py mvnv, vnv jadi silakan tekan pada enter dan yep, sekarang itu
baiklah itu dilakukan dan Anda dapat memverifikasi bahwa itu bekerja dengan membuka file
explorer anda dan yep di sini ada folder yang disebut vnv, dan di sana kita memiliki
lingkungan virtualkami, di sini Anda melihat beberapa folder, dan Anda melihat yang satu ini
dan di sini kita melihat skrip aktivasi,ini adalah bagaimana kita benar-benar akan
mengaktifkan lingkungan virtual, jadi kembali ke baris perintah kita masuk ke dalam folder
vnv, kita mengakses folder skrip dan kemudian menjalankan aktifkan, jadi ketika Anda
melakukannya,
yep perintah prompt perubahan di sana dikatakan vnv sehingga kita sekarang berada di dalam
lingkungan virtualpython, sehingga setiap perubahan yang Anda buat di sini tidak akan
mempengaruhi proyek python lain yang Anda miliki di mesin Anda, seperti misalnya proyek
kamidiperbarui, penjual kemasan python bernama pip, jadi untuk memastikan bahwa itu
menggunakan versi terbaru mari kita jalankan perintah python-m, kita akan melakukan dash
upgrade dan kami akan ingin meng-upgrade paket pipkami, jadi hanya pergi maju tekan di
enter, dan Anda sekarang sudah berhasil menginstal paket pip terbaru, oke sejauh ini begitu
dan yang pertama yang kita perlukan adalah paket yang disebut pytorch, ini adalah
perpustakaan open source untuk melakukan perhitungan menggunakan grafik alirandata, jadi
ini adalah representasi yang mendasari model pembelajaran mendalam, untuk itu mari kita
jalankan instalasi pip perintah dan di sini kita membutuhkan versi tertentu, jadi di sini ada di
dan unduh dari situs webini, sekarang jika Anda memiliki masalah atau Anda menonton ini
berbulan-bulan di masa depan periksa dokumen instalasi github untuk melihat versi mana
yang akan digunakan, jadi Anda terus menjalankan ini, dan sekarang kami menunggunya
selesai, oke pytorch sekarang diinstal selanjutnya kami menginstal paket agen ml, jadi kami
hanya memasang agen mlpip, tetapi hanya berjalan seperti ini dapat memberi Anda beberapa
dan di sini kita melihat kesalahan di mana kita memiliki versi numpy yangsalah, jadi itu
tidak kompatibel, jadi jika Anda tidak mendapatkan kesalahan itu maka tidak apa-apa terus
berjalan tetapi jika Anda mendapatkan kesalahan seperti yang saya lakukan maka solusinya
adalah menggunakan resolver paket yang berbeda, begitu juga pip install ml agents dan
kemudian dash dash, gunakan fitur dan fiturnya adalah resolver 2020,
jadi jika Anda menggunakan resolver baru dan menjalankan jika di sana Anda pergi sekarang
Anda dapat melihat itu menghapus versi yangsalah, dan menjual yang benar baik-baik saja
sehingga sekarang kita memiliki semua versi yang benar dan kita dapat memverifikasi bahwa
masuk ke mlagents-learn dan kemudian menggunakan command-help, dan tekan enter, dan
yap jika semuanya berjalan dengan benar maka Anda harus dapat melihat file helm untuk
jadi di sini semuanya berjalan dengan benar sehingga semuanya diinstal denganbenar, dan
pada saat rekaman ini saya menggunakan ml legends rilis 10, dengan paket python 0,22 jadi
sekali lagi jika Anda memiliki masalah atau Anda menonton ini berbulan-bulan di masa
Oke sejauh ini begitu baik dan dengan itu sisi python semua diinstal denganbenar, sekarang
sebenarnya ada satu langkah opsional lagi di sini jika Anda melihat di konsol Anda mungkin
melihat beberapa pesan peringatan, sekarang ini tidak terkait langsung dengan paket mlegens
jadi jika Anda menonton ini di masa depan dengan rilis mesin ml lain itu mungkin tidak
menunjukkan peringatanini, sesuatu yang mengatakan itu tidak bisa memuat perpustakaan
dinamis dengan nama cuda rt64 menggarisbawahi 101, jadi jika Anda melihat sesuatu seperti
itu memberitahu Anda bahwa itu tidak dapat menemukan perpustakaan cooldown,
sekarang ini opsional semuanya akan berjalan dengan baik tanpamereka, jadi jika Anda tidak
memiliki GPU Anda dapat melewati langkah ini dan itu akan menggunakan cpu Anda bukan
gpuAnda, tetapi jika Anda memiliki GPU nvidia Anda dapat opsional menginstal cuda, jadi
jika Anda melihat bahwa pesan perhatikan nama perpustakaan yang hilang, jadi dalam kasus
saya, saya melihat perpustakaan yang hilang yang berakhir dengan garis bawah 101.dll,
jadi itu berarti bahwa itu membutuhkan cuda versi 10.1, jadi cukup masuk ke situs web
nvidia dan unduh cuda, namun sekali lagi perhatikanversinya, pada saat rekaman ini versi
download tidak men-download versi 11. alih-alih masuk ke arsip dalam hal ini kami mencari
setelah menginstalnya jika Anda sekali lagi menjalankan simpanan agen ml belajar dash dash
help jika Anda menjalankannya lagi Anda harus dapat melihat bahwa peringatanhilang, jadi
sekarang menemukan perpustakaan cooldown namun Anda mungkin melihat peringatan lain,
yang lagi memeriksa namaperpustakaan, sehingga Anda mungkin melihat perpustakaan lain
yang hilang bernama bisa nn64 menggarisbawahi tujuh, jadi ini adalah perpustakaan jaringan
saraf dalam cuda sehingga sekali lagi hanya masuk ke situs nvidia dan mencari coo dnn, jadi
tetapi sekali lagi perhatikan nama perpustakaan lagi dalam kasus saya, itu hilang kode dnn64
menggarisbawahi7, yang berarti bahwa ia menggunakan versi 7, dan sekali lagi yang terbaru
sebenarnya adalah versi delapan sehingga ketika Anda mengunduhnya pastikan Anda
Ketika Anda mengunduhnya Anda mendapatkan file zip dan di dalam Anda melihat folder
cuda dan sekelompokfile, jadi untuk menginstalnya Anda cukup masuk ke folder instalasi
cuda Anda, jadi dalam kasus saya saya meletakkannya secara default sehingga pada file
kemudian di dalam Anda melihat folder cuda dan di dalam kita melihat kita masuk ke versi
10.1, dan kemudian di sini kita melihat berbagai folder kami jadi silakan saja dan salin semua
ini,
jadi folder sertakan lib dan tempat sampah,jadi ambil saja ini dan seret semuanya di sana, dan
setelah melakukan itu Anda dapat memverifikasi dengan masuk ke dalam perpustakaan
sampah, dan di sini Anda harus dapat menemukan semua dlls, jadi dalam kasus saya cuda
rt64101,
dan yang lainnya adalah bisa nn 64 menggarisbawahitujuh, dan sekarang jika kita
menjalankan agen ml belajar bantuan sekarang Anda harus dapat melihat semuanya berjalan
tanpa peringatan, jadi kami di sini perintah berlari dan tidak ada peringatan, oke sejauh ini
begitu baik, jadi dengan ini kita memiliki semua setup untuk sisi python termasuk
sekarang mari kita masuk ke proyek persatuan kami,di sini saya memiliki proyek yang cukup
banyak hanya baru, jadi hanya demo sederhana saya telah menyiapkan paket mesin ml,
bekerja dengan versi unity mulai dari 2018.4, sekarang saya ingin memastikan bahwa video
ini tetap relevan selama mungkin, jadi dalam proyek ini saya saat ini menggunakan 2020.2,
tetapi semuanya bekerja persis sama jika Anda menggunakan 2019.4 atau jika Anda berada di
masa depan menggunakan versi lts 2020, jadi untuk menginstal paket agen ml hanya pergi ke
depan membuka manajer paket, maka di sini pilih paket dan pastikan Anda masuk ke registri
unt, dan di sini hanya gulir ke bawah dan menemukan paket agen ml,
di sini Anda dapat melihat paket stabil terbaru yang merupakan waktu rekaman ini adalah
versi 1.0.6 dan lagi saya ingin video ini relevan untuk waktu yanglama, jadi saya akan
menginstal paket pratinjau terbaru, jadi untuk itu saya akan mengklik ikon roda gigi masuk
ke pengaturan proyek tingkat lanjut, dan di sini saya akan mengaktifkan paket pratinjau, dan
ya saya mengerti begitu di sini pada legenda ml sayadapat memperluasnya melihat versi lain,
dan di sini saya melihat paket pratinjau terbaru yang pada saat rekaman ini adalah 1,6 tetapi
sekali lagi jika Anda berada dalam tahap produksi pengembangan Anda dan Anda
menginginkan stabilitasmaksimum, maka pergilah dengan versi unity lts yang stabil serta
jadi pilih pilihan Anda dan lanjutkan dan klikinstal, oke itu dilakukan dan Anda dapat
permainan kosong,
dan di sini jika Anda masuk ke komponen tambahan,Anda sekarang harus dapat melihat grup
untuk agen ml dan di sini berbagai skrip, baiklah sehingga kami memiliki semuanya dengan
benar diinstal, sekarang di sini untuk pengujian saya memiliki demo ini yang cukup banyak
Itu hanya karakter yang bagus dan di sini adalahtujuannya, jadi tujuannya adalah untuk
mengajarkan karakter ini untuk bergerak menuju tujuan dan tidak jatuh dari peta, jadi mari
kita lihat bagaimana kita benar-benar menggunakan agen ml kita, sekarang untuk pertama
kali itu kita perlu membuat agenagen, adalah apa yangakan menjalankan ai kita baik untuk
dan untuk membuat agen kita hanya membuat skrip c tajam normal,jadi klik kanan di sini,
akan membuat skrip c sharp baru, dan mari kita beri nama ini pindah ke agen tujuan, dan
terus membuka naskah, dan sekarang di sini kita perlu pergi ke sini untuk menambahkan
menggunakan,
masuk ke dalamkesatuan, dan mari kita gunakan kesatuan agen ml, maka di sini mari kita
singkirkan metode default yang tidak kita butuhkan sekarang, dan alih-alih mewarisi dari
jadi di sini Anda dapat mengklik kanan pada agen dan masuk kedefinisi, dan di sini kita
melihat definisi kelas itu, sehingga seperti yang Anda lihat kita memiliki banyak metode yang
semuanya terkait dengan pembelajaran mesin, sekarang cara agen belajar adalah melalui
pembelajaran penguatan, jadi itu didasarkan pada lingkaran pengamatan yang relatif
keputusan berdasarkan data yang memiliki dan kemudian mengambiltindakan, dan jika
melakukan tindakan yang benar maka mendapat hadiah, jadi ini adalah siklus berkelanjutan
di mana agen tumbuh untuk belajar berdasarkan pengamatan dan tindakan apa yang
agen, dan kita perlu mengesampingkandua fungsi, jadi kita perlu mengesampingkan yang
dan kemudian kita juga perlu mengesampingkan yang satu ini yang menerima penyangga
dengan semua tindakankita, oke jadi mari kita kembali ke naskah kita, jadi langkah kita
keagen tujuan, dan pertama-tama mari kita lihat bagaimana ai mengambil tindakan, jadi kita
penyanggatindakan, jadi penyangga ini kemudian berisi tindakan kita sebagai pelampung
atau berakhir, sekarang satu hal yang perlu diingat adalah bahwa algoritma pembelajaran
mesin hanya bekerja dengan angka, yang berarti bahwa ia tidak memiliki pemahaman tentang
apa sebenarnya objek pemain, atau apa artinya pindah ke kanan, yang diketahuinya
hanyalahangka,
Lebih mudah untuk memahami hal ini jika kita melihatnyaberaksi, jadi untuk saat ini mari
kita kembali ke editor, dan di sini mari kita pilih agen kami jadi saya memiliki agen bagus
saya di sini, dan saya hanya akan menyeret langkah ke agen tujuan dan melampirkannya di
sana, dan ya di sini adalah langkah kami untuk pergi skrip agen dan ketika kami
ini adalah berbagai parameter yang digunakan ai kita pertama kali kita memiliki
namaperilaku, jadi mari kita ganti nama ini untuk pindah ke pergi, jadi berikan nama yang
tepat untuk agen ini, dan kemudian di sini mari kita lihat tindakan vektor, jadi mari kita
pelajari apa artinya ini pertama-tama Anda memiliki tipe ruang, jadi di sini Anda dapat
memilih antara script dan terusmenerus, sekarang pada dasarnya diskrit adalah bilangan bulat
sehingga Anda dapat memiliki 0 1 2 3 dan seterusnya, dan terus menerus adalah Floats, jadi
akan antara minus 1 sampai plus 1 dan semua angka diantara, jadi 0.2.3 minus 0,4 dan
seterusnya, kita akan melakukan tes cepat untuk melihat perbedaan ini dalam sedikit, mari
kita pelajari tentang parameter lain,jadi pertama jika Anda memilihterus menerus,
di sini Anda melihat ukuran ruang dan ini adalah berapa banyak tindakan yang tidak akan
Anda dapatkan padavektor, jadi misalnya jika Anda menempatkan 2 di sini, maka dalam
kode jika kita memeriksa buffer tindakan kita, kita melihat bahwa ini berisi dua segmen
tindakan satu untuk tindakan terus menerus dan satu untuk tindakan diskrit,
jadi segmen tindakan di sini pada dasarnya adalah array sehingga ketika Anda mengatur
ukuran ruang Anda mendefinisikan ukuran untuk array dari jenis yang Andapilih, jadi jika
Anda menetapkan ukuran ruang dua maka ini akan memiliki dua posisi dengan duanilai, nilai
dan kemudian jika Anda memilihdiskrit, ukurannya sama sehingga berapa banyak nilai yang
Anda dapatkan pada array itu, tetapi kemudian Anda juga memiliki parameter kedua yang
merupakan nilai maksimum untuk cabang ini, jadi seperti yang saya katakan diskrit berarti
Jadi misalnya jika Anda memasukkan 1 disini, maka Anda tidak akan mendapatkan nilai
tindakan hanya nol, tetapi jika Anda menempatkan dua maka Anda akan mendapatkan nilai
tindakan nol atau satu, dan jika Anda menempatkan lima maka Anda bisa mendapatkan nol
dan setiap cabang dapat memiliki ukuran sendiri jadi misalnya jika Anda membuat ai mobil
Anda akan membuat cabang pertama mengacu pada mempercepat danmelanggar, sehingga
Anda akan meletakkannya dengan dua nilai, dan kemudian untuk cabang kedua katakanlah
itu akan mewakili berputar, sehingga Anda akan menempatkan tiga nilai satu untuk berbelok
Oke sekarang sebelum kita melangkah lebih jauh dan melihat bagaimana
mendefinisikanpelatihan, mari kita uji tindakan ini untuk mendapatkan pemahaman yang
lebih baik tentang bagaimana semua ini bekerja, jadi pertama-tama mari kita letakkan diskrit
hanya dengan satu cabang tetap sederhana dan mari kita letakkan dengan ukuran lima, dan
kita masuk ke dalam buffertindakan, kemudian kita mengakses tindakan diskrit kita, dan
mari kita cetak apa yang ada di indeks 0. karena kita hanya memiliki satu cabang yang berarti
kita memiliki satu nilai pada array ini sehingga nilai berada pada indeks nol, oke sekarang
sebelum kita dapat menguji ai ini kita perlu menambahkan satu hal lagi,
di sini di agen kami mari kita tambahkankomponen, masuk ke agen ml dan kami akan
menambahkan pemohon keputusan, seperti yang saya katakan sebelumnya cara kerja
penghargaan,
jadi untuk mengambil tindakan kita harus terlebih dahulu memintakeputusan, dan apa yang
dilakukan skrip ini hanyalah meminta keputusan setiap jumlah waktu tertentu dan kemudian
mengambiltindakan, sekarang ada cara lain untuk meminta keputusan tetapi untuk saat ini
mari kita gunakan skrip sederhana ini, oke jadi di sini kita siap untuk memulai pelatihan dan
menjalankan tes kita untuk melihat apa yang akan dihasilkan AI di sini,
jadi untuk itu mari kita kembali ke command promptkami, dan di sini pastikan Anda berada
di dalam lingkungan virtual dan untuk melatihnya sangat mudah kita hanya menjalankan
perintah ml agen dashalert, jadi hanya tekan enter dan yep kita melihat logo kesatuan ascii
yang bagus dan pesan yang memberitahu kita bahwa kita dapat mulai berlatih dengan
menekan tombol bermain, jadi lakukan saja di sini tekan tombol putar, dan ya kita sekarang
jadi kita dapat memeriksa command prompt yep kita memiliki semuanyaberjalan, sehingga
mendengarkan itu dan itu menjalankan pelatihan kami dan di sini kita dapat
memeriksakonsol, dan sekarang kita dapat memverifikasi dan melihat apa vektor tindakan
Jadi mari kita jatuh dan di sini kita dapat melihat bahwa kita menempatkan hanya satu cabang
dengan ukuran cabanglima, jadi di sini kita memiliki nilai-nilai pergi dari nol satu dua tiga
dan empat, jadi kita memiliki lima nilai nol sampai empat, jadi ini adalah apa artinya
memiliki vektor diskrit dengan ukuran cabang lima, sekarang mari kita uji dengan tipe
jadi di sini mari kita menukarnya dari diskrit menjadi kontinu dan dengan ukuran ruang
hanyasatu, maka di sini dalam kode itu hampir sama satu-satunya perbedaan adalah kita
mengakses segmen tindakan untuk tindakan terus menerus bukan diskrit, dan posisinya sama
dan sekarang kami ingin menjalankan tesini, jadi di sini di baris perintah pertama-tama kita
dapat melihat bahwa tes sebelumnya bekerja dengan benar sehingga kita memiliki pelatihan
kita, kita memiliki model kita dan seterusnya, dan di sini jika kita menjalankan perintah yang
sama persis ml agen belajar, jika kita menjalankannya seperti ini di sana itu adalah kita
mendapatkan kesalahan,
dan kesalahannya adalah karena kami mencoba menjalankan pelatihan lagi menggunakan id
default yangsama, jadi di sini kami memiliki dua opsi yang dapat kami sebut agen ml kami
pelajari, dengantag gaya, jadi ini akan menimpa data sebelumnya, atau kami dapat
menentukan nama id yang berbeda, jadi mari kita coba lakukan itu sehingga dash run dash id,
sama dan kemudian sesuatunama, jadi katakanlah test2, jadi sekarang jika kita terus
menekan masuk dan ya kita memilikinya kita mendengarkan di pelabuhan jadi hanya mulai
pelatihan, jadi hanya memukulnya dan mari kita lihat dan ya kita memiliki pelatihan berjalan
dan sekarang kita dapat melihat apa yang satu ini tidak,
jadi kita bisa melihat seperti apa tindakan terusmenerus, jadi di sini kita mendapatkan nilai
cukup banyak antara minus satu dan ditambah satu dan segala sesuatu diantaranya, baiklah
sekarang Anda harus memiliki pemahaman yang lebih baik tentang bagaimana tindakan
bekerja,
jadi diskrit adalah bilangan bulat dan terus menerus kita punya pelampung dari -1 ke
plussatu, sehingga seperti yang Anda lihat ini benar-benar hanya angka sehingga terserah
Anda untuk memutuskan apa yang mereka wakili, sekarang mari kita lihat bagian lain dari
siklus pembelajaran penguatan, mari kita lihat pengamatan, jadi kembali ke kode di sini,
hanya melakukan peniutan publik dan kami akan mengesampingkan pengamatan yang satu
ini yang mengambil sensor vektor, dan segera setelah Anda melakukannya di sini akan
menambahkan sensor agen ml kesatuan yang menggunakan, jadi di sinilah sensor ini ada, jadi
saja seperti input untuk ai, dan jelas ini akan berbeda berdasarkan masalah apa yang Anda
coba selesaikan,
Jadi pada dasarnya Anda perlu memikirkan data apa yang dibutuhkan AI untuk memecahkan
masalah yang Andaberikan, sekarang tujuan kami dalam contoh ini, adalah kami memiliki
karakter dan kami memiliki tujuan dan kami ingin memindahkan karakter ke arah tujuan, jadi
jika Anda memikirkannya jika Anda mengendalikan pemain jadi informasi apa yang Anda
butuhkan,
yah pertama-tama jelas Anda perlu tahu di mana Andaberada, jadi kita harus lulus di posisi
pemain, dan kemudian Anda juga perlu tahu di mana targetnya sehingga kita juga perlu
melewati posisi itu, jadi di sini dalam naskah bagaimana kita meneruskannya ke ai sangat
sederhana kita hanya masuk ke sensor dan memanggil fungsi menambahkan pengamatan,
dan di sini pertama mari kita lulus di transform.position, jadi posisi pemain sehingga dengan
ini ai akan memiliki data untuk posisipemain, dan kemudian mari kita juga lulus dalam posisi
target jadi di sini mari kita tambahkan film serial untuk referensi, jadi transformasi untuk
transformasi target, jadi kembali di editor kita memiliki film kita mari kita seret saja
dan di sini kita melakukan hal yang sama sensor menambahkan pengamatan dan lulus dalam
posisi transformasitarget, baiklah, jadi dengan kedua posisi ini ai harus memiliki cukup data
jadi kita melewati dua pengamatan ini dan kembali ke sini mari kita sekarang melihat
parameter pengamatanvektor, jadi kita melihat ukuran ruang jadi ini adalah berapa banyak
input yang akan kitaberikan, dan kembali ke kode kami Anda mungkin berpikir bahwa kita
namun kami hanya mengirim dalam dua posisi dan Anda harus ingat bahwa posisi benar-
benar vektortiga, yang terdiri dari tiga beban untuk x y dan z, jadiuntuk masing-masing dari
dua posisi ini masing-masing melewati tiga nilai, jadi dengan dua posisi kita benar-benar
melewati dalam enam nilai atau enam mengapung, jadi di sini untuk ukuran ruang
maka parameter lainnya adalah vektorsekte, jadi ini untuk kasus penggunaan yang lebih maju
di mana Anda membutuhkan ai untuk memiliki semacam memori, jadi jika Anda
mengaturnya menjadi satu maka hanya dibutuhkan satu pengamatan mengambil semua enam
nilainya dan membuat keputusannya, dan jika Anda mengatur ini menjadi dua maka
dibutuhkan satu pengamatan dan juga yang terakhir dan menggunakan keduanya untuk
membuatnya. keputusan,
jadi misalnya jika Anda melewati vektor bertumpuk lebih darisatu, dan Anda menggunakan
posisi sebagai pengamatan, maka ai kemudian dapat menyimpulkan arah objek, tetapi seperti
yang saya katakan itu untuk kasus penggunaan yang lebih maju jadi di sini mari kita tetap
baiklah sehingga dengan ini kami memiliki pengamatan kami diurus dan kami sudah melihat
bagaimana tindakanbekerja,
jadi sekarang mari kita benar-benar menggunakan tindakan-tindakan itu lagi tujuan dalam tes
ini adalah untuk memindahkan karakter menujutujuan, jadi untuk itu mari kita mengatur
ruang aksi menjadi terus menerus sehingga kita memiliki pelampung, dan mari kita atur
untuk menerima dua, jadi kita akan menerima satu untuk gerakan x karakter kita dan satu
lagi untukgerakan z, jadi kembali ke sini dalam kode kami mari kita ambil tindakan kita, kita
akan mendefinisikan posisi pertama sebagai x, jadi kita mengapung bergerak x kita masuk ke
tindakan kita, dalam hal ini kita menggunakan tindakan terus menerus, sehingga Anda
mengambil yang satu pada indeks nol ini akan menjadi bergerak kita x, dan kemudian yang
jadi sekali lagi seperti yang saya katakan ai hanya bekerja denganangka, jadi ini bukan hanya
mengapung dan terserah Anda untuk menentukan apa yang mereka wakili, jadi di sini saya
mengatakan bahwa pelampung pertama pada indeks nol mengacu pada bergerak x, dan yang
ada di indeks satu mengacu pada moveset, jadi kami memiliki ini dan kemudian mari kita
lakukan transformasi yang sangat mendasar, jadi hanya mengubah bergerak posisi hanya
meningkatkan itu mari kita membuat tiga baru dengan bergerak x, dengan nol pada y kita
kemudian kita kalikan ini dengan waktu dot delta waktu dan kemudian dengan kecepatan
bergerak tertentu,jadi di sini kita melipat untuk kecepatan bergerak dan untuk saat inimari
kita tinggalkan hanya pada satu, oke jadi dengan logika yang sangat mendasar ini ai harus
dapat memindahkan karakter, sekarang sekali lagi mari kita kembali ke siklus belajar
penguatan,
kami telah mengurus keputusan dan tindakanpengamatan, sekarang yang tersisa hanyalah
menambahkan hadiah, tujuan kami di sini adalah agar karakter mencapai target, dan karakter
dan kemudian pada target itu sendiri juga sebagai collider dengan set untuk memicu,sehingga
kita dapat dengan mudah menguji tabrakan ini, jadi pada agen di sini kita hanya
menambahkan kekosongan pribadi yang sangat dasar, kita menambahkan pada pemicu masuk
dan ketika kita memasuki pelatuk maka kita memiliki tujuan kita,
sekarang ada dua cara agar kita dapat memberikanhadiah, kita dapat memanggil fungsi yang
ditetapkan hadiah, jadi yang satu ini menetapkan hadiah ke jumlah tertentu, dan kemudian
Anda juga memiliki yang lain yang menambahkan hadiah yang menambah hadiah saat ini,
jadi misalnya ketika membuat driver kartu ai Anda akan meningkatkan pada setiap pos
pemeriksaan yang Andapukul, tetapi di sini kita hanya memiliki satu tujuan sehingga
menggunakan hadiah yang ditetapkan sempurna, jadi cukup panggil tetapkan hadiah dan atur
untuk katakanlah 1f, sekarang nilai spesifik yang Anda pilih ere tidak terlalu penting, jadi
itu hanya penting relatif terhadap imbalan Anda yang lain seperti misalnya ketika kita
menabrakdinding, kita harus memberikan penalti besar, oke jadi dengan ini kita menetapkan
hadiah ketika kita memukul collider, sekarang hal lain tentang bagaimana agen ml bekerja
adalah konsep episode, jadi satu episode pada dasarnya adalah satu lari, dan episode harus
berakhir ketika karakter baik mencapai tujuan akhir atau kalah, jadi di sini setelah
menetapkan hadiah mari kita akhiri episode kami, jadi kita hanya memanggil fungsi dan
episode, jadi ini akan mengakhiri episode dan kemudian ketika episode berakhir,
permainan tidak benar-benarberhenti, tetapi kita perlu beberapa cara untuk mengatur ulang
negara sehingga kita dapat melatihlagi, sehingga kita dapat menimpa yang lain, sehingga
kekosongan menimpa publik, dan kita akan mengesampingkan fungsi pada episode mulai,
jadi yang satu ini dipanggil segera setelah episode dimulai dan di sini kita dapat mengatur
ulang semuanya kembalinormal, sekarang dalam contoh yang sangat sederhana ini kita
kembali ke keadaanawalnya, yang untuk saat ini untuk demo sederhana yang saya miliki di
sini keadaan awal hanya pada nol nolnol, sekarang nanti kita akan menambahkan beberapa
keacakan tetapi untuk saat ini mari kita tetap sederhana dan mengatur ulang kembali ke titik
yang sama, jadi di sini hanya mengubah posisi itu dan meletakkannya pada vektor 3.0,
jadi ini akan mengatur ulang negara dengan benar sehingga dapat berlatihlagi, oke jadi di
sini kita memiliki hampir semuanya siap untuk dilatih, hal terakhir yang kita butuhkan
hanyalah penalti, jadi di sini untuk membuat pelatihan kita lebih efektif,
Mari kita tambahkan beberapa kolektor ditepi, sehingga kita bisa memberikan hadiah negatif
dan kemudian mengakhiri episode, jadi mari kita membuat isyarat 3d baru, mari kita beri
nama ini dinding dan mari kita letakkan di tepinya, oke jadi di sini saya menambahkan
dan mari kita juga membuatnya sebagaipemicu, dan sekarang kita hanya perlu
mengidentifikasi apakah pemain bertabrakan dengan tujuan atau dinding, jadi untuk itu mari
kita buat beberapa komponen tag dasar, jadi satu untuk tujuan dan satu lagi untuk dinding,
dan hanya tambahkan komponen kosong hanya untuk berfungsi sebagai tag, jadi dinding dan
kita bisa masuk ke yang lain dan mencoba mendapatkankomponen, pertama-tama mencoba
mendapatkan tujuan, jadi jika itu memiliki tujuan maka kita akan memberikan hadiah positif
dan mengakhiri episode, dan kemudian kita memeriksa apakah itu memiliki dinding sebagai
gantinya, jika demikian maka kita akan memberikan hadiah negatif dan juga dalam episode,
Baiklah, jadi itulah semuanya harus hampir selesai, sekarang sebelum kita benar-benar mulai
melatih hal pertama yang harus kita lakukan adalah memvalidasi untuk memastikan bahwa
semuanya memang berhasil, jadi untuk pengujian ada hal lain yang dapat kita lakukan yaitu
kita dapat mendorong tindakansendiri, jadi mari kita mengesampingkan fungsi lain, jadi kita
itu disebut heuristik dan mengambil dan tindakan untuk buffertindakan, dan sekarang di sini
kita pada dasarnya dapat memodifikasi tindakan yang kemudian akan diterima oleh fungsiini,
jadi dalam hal ini kita menggunakan tindakan terus menerus, jadi kita masuk ke tindakan
keluar dan kita mengakses tindakan terus menerus, ini adalah jenis segmen tindakan
mengapung,
jadi kita mendapatkannya dan kemudian kita dapat dengan mudahmemodifikasi, mereka
sehingga dalam hal ini mari kita gunakan input untuk memindahkan karakter dengan
tombolpanah, jadi kita hanya memodifikasi nilai-nilai ini, jadi pertama pada z kita punya
bergerak x, jadi mari kita masuk ke input untuk mendapatkan sumbu mentah untuk
Oke jadi ini hanya untuk pengujian dan sekarang kembali ke editor kita memilih agenkami,
dan di sini kita memiliki film untuk jenis perilaku, jadi kita memiliki heuristik default dan
inferensi, sekarang dalam hal ini kita dapat secara manual mengaturnya ke heuristik saja yang
atau Anda dapat membiarkannya sebagai default dan selama Anda tidak memiliki python
dengan agen mlberjalan, dan Anda tidak memiliki model yang dipilih itu akan secara
otomatis menggunakan heuristik, jadi jika kita melakukan seperti ini dan kita jalankan di sini
Yap sekarang saya dapat memindahkankarakter, mari kita tingkatkan kecepatan dengan
sedikit, oke saya memiliki kecepatan sekarang mari kita pastikan bahwa semuanya bekerja,
jadi pertama-tama gerakan bekerja, jadi kita benar-benar melewati tindakan dan memetakan
tindakan-tindakan itu menjadi gerakan, selanjutnya mari kita coba memukul dinding jadi naik
dan jika di sana Anda pergi itu memangterjadi, sehingga mengakhiri episode seperti yang
Anda lihat reset kembali ke nol, dan sekarang jika kita mencapai tujuan ya juga terjadi,
baiklah sehingga di sini kita dapat memverifikasi bahwa semuanya bekerja dengan sempurna
sekarang untuk melatih adalah hal yang sama persis yang kita lihatsebelumnya, hanya di sini
pastikan bahwa jenis perilaku diatur kembali ke default, dan kemudian membuka command
prompt, dan di sini mari kita jalankan hal yang sama seperti yang kita lihat sebelumnya, jadi
mari kita berikan id yang berbeda dan katakanlah ini adalah tes tiga,
jadi tekan pada masuk dan ya sekarang mendengarkan jadi mulaipelatihan, jadi hanya tekan
pada bermain, dan jika ada itu ada kami memiliki agen kami dan itu benar bekerja, sehingga
Anda dapat melihat sekarang itu memang akan melalui proses pelatihan,
Jadi itu mencoba segala macam nilai sampai menemukan sesuatu yang mungkin memberikan
hadiahpositif, sekarang yang harus kita lakukan adalah menunggu, namun ada satu hal yang
dapat kita lakukan untuk mempercepat pelatihan secara besar-besaran, dan mari kita juga
Jadi jika masalahnya adalah bahwa jika ai tidak pernah menyentuhtujuan, maka mungkin
hanya belajar untuk menghindari dinding dan hanya tinggal di tempatselamanya, sehingga
kita dapat memperbaiki bahwa untuk memastikan bahwa tidak terjadi dengan menetapkan
langkah maksimal,
jadi di sini pada agen kita dapat melihat bidang untuk langkahmaksimal, sekarang langkah
seperti pembaruan pada pelatihan, secara default berjalan 50 kali per detik persis sama
dengan pembaruan fisika, jadi di sini mari kita berikan langkah maksimal dari sesuatu seperti
seribu,
Hanya untuk memastikan bahwa episode berakhir dan tidak berjalanselamanya, oke jadi itu
satu masalah terpecahkan dan di sini mari kita hanya visual menyembunyikan dinding, hanya
agar terlihat sedikit lebih baik, sekarang untuk mempercepat pelatihan itu sangat sederhana,
Jadi mari kita ambil semua lingkungan pelatihan kita di sini dan memasukkan objek
yangsebenarnya, jadi hanya wadah mari kita beri nama lingkungan kita, dan mari kita seret
seluruh lingkungan kita ke dalam sana, dan kemudian kita mengambil ini dan mari kita seret
saja ke file proyek kita untuk membuatnya menjadi prefab, jadi kita memiliki prefab kita dan
jadi cukup duplikat letakkan satu sama lain di sana dan sekarang lagi Anda dapat
menempatkan sebanyak yang Anda inginkan untuk berlatih sedikit lebih cepat daripada
hanya satusekaligus, baiklah, jadi di sanalah di sini kita memiliki 20 lingkungan, semuanya
dengan benar untuk pelatihan, sekarang ada satu hal yang sangat penting ketika
Jadi jika Anda mengambil pendekatan ini untuk mempercepat pelatihan Anda perlu
memastikan bahwa semua logika Anda bekerja berdasarkan komposisi rendah dan bukan
pada posisiglobal, jadi misalnya karakter ini di sini memang pada posisi lokal 0, tetapi pada
posisi global 13, jadi jika Anda mengatur ulang kembali ke posisi level 0 maka itu akan
kembali ke sana,
dan bukan ke mana ia harus benar-benarpergi, jadi di sini pada logika kita kita menggunakan
posisi dan mari kita hanya mengganti semua contoh posisi dalam komposisi rendah tersebut,
oke semuanya seharusnya tidak bekerja, dan sekarang di sini hanya untuk membuat ini lebih
mudah untuk memvisualisasikan saya akan menambahkan sesuatu, jadi pada naskah saya
meshlantai, ini hanya agar kita dapat memvisualisasikan pelatihan jelas ini tidak perlu, jadi
hanya pergi ke sini ketika kita memiliki angin kita, mari kita mengatur bahan rendering mesh
dan ketika kita kalah mari kita atur ke materi yang tidakloyal, jadi kembali ke editor mari
kita buka prefab pilih agen, dan di sini kita memiliki bidang kita mari kita lewati di lapangan
untuk platform,
dan hanya menang dan materipenyakit, sekali lagi ini hanya untuk visual hanya untuk
membuatnya lebih mudah untuk melihat pelatihan terjadi pada video, itu jelas tidak perlu
untuk benar-benar melatih mesin, oke, sekarang sebelum kita memulai pengujian massal,
mari kita pastikan semuanya bekerja, jadi sekali lagi divalidasi hanya dengan heuristik saja,
Inilah semua agen dan yep kami semua bergerak dan itu bekerja denganbaik, dan jika kami
pergi ke dinding, ya itu berubah menjadi merah sehingga kami dapat dengan mudah
memvisualisasikan bahwa pelatihan gagal, dan di sana ada belokan terbuka yang terlalu hijau,
Sekarang kami siap untuk melakukan beberapa pelatihan massal hanya masuk ke agen Anda
dan pastikan bahwa jenis perilaku berada padadefault, dan sekarang dengan command
prompt kami, mari kita jalankan agen ml kami belajar, dan untuk menjalankan id dan mari
kita berikan id yang tepat, jadi mari kita beri nama itu pindah untuk pergi, Oke jadi jalankan
saja dan sudah siap jadi cukup tekan tombol putar, dan di sini kita bisa melihat semua agen
beberapasayuran, dan ya itu benar-benar belajar cukup cepat, sehingga Anda melihat
beberapa merah terjadi dan sekarang itu benar-benar hanya sebagian besar hijau, jadi seiring
waktu agen belajar dan itu terus-menerus menjadi lebih baik dan lebih baik,
dan dengan contoh yang sangat sederhana ini setelah hanyasedikit, ya semuanya bekerja dan
kita dapat melihat hampir semuanya berwarna hijau, jadi di sini kita memiliki ai yang dengan
Oke jadi itu luarbiasa, sekarang mari kita berhenti berlatih jadi hentikan saja editor, dan di
sini di command prompt Anda dapat melihatnya menyimpan model dan otak adalah titik ini
pada file x, dan Anda dapat melihat bahwa menyalin hasil untuk hasil bergerak untuk pergi
pindah ke tujuan dan kita memiliki otak, jadi buka file explorer dan masuk ke folder proyek
Anda,
dan di sini masuk ke dalamhasil,dalam hal ini kita memiliki langkah ke tujuan, dan di sini
kita memiliki langkah untuk pergi pada titik onyx ini adalah otak kita, jadi silakan copy pasta
ini ke aset normal kita, dan di sini kita dapat melihat pindah ke tujuan sehingga kita memiliki
otak yang bagus, Jadi ini adalah model jaringan saraf kami,
dan sekarang untuk menggunakan otakini, mari kita pilih lingkungan kita, jadi untuk saat ini
mari kita nonaktifkan semua yang lain hanya untuk melihat yang satu ini beraksi, jadi pilih
agen dan cukup klik dan seret dan tetapkan model jaringan saraf kita, dan kemudian pada
jenis perilaku kita dapat meninggalkannya sebagai default atau Anda dapat langsung
Inferensi berarti menggunakan model otak daripadapelatihan, oke jadi mari kita uji seperti
ini dan kita harus dapat melihat karakter kita menggunakan otak ini untuk mencapaitujuan,
dan jika di sana kita memiliki karakter kita dengan benar menggunakan otak kita untuk
baiklah jadi selamat Anda baru saja melatih ai pembelajaran mesin pertamaAnda, luar biasa,
menguji pengaturan yang sangat sederhana, jadi kami hanya mendapatkan karakter untuk
pindah dari sini sampai ke sini, jadi itulah yang dipelajari ribuan tahun tetapi jika saya
dan saya hanya memindahkannya ke sini dan anda di sana Anda pergi tiba-tiba karakter tidak
tahu apa yang harusdilakukan, dengan cara yang kita mengatur pelatihan kami ai kami hanya
Jadi dengan memindahkan transformasi itu tidak benar-benar belajar bagaimana untuk masuk
Jadi ini adalah contoh mata yang sangat sederhana tidak tahu apa yang harus dilakukan
karena tidak dilatih untuk tujuan yangbergerak, jadi inilah mengapa ketika pelatihan
biasanya Anda ingin menambahkan beberapa keacakan untuk mencegah ai dilatih hanya pada
satu skenario yang sangat spesifik, jadi ada banyak yang dapat Anda lakukan untuk
dan kemudian ada juga banyak parameter yang dapat Andamainkan, parameter untuk
algoritma disimpan dalam file konfigurasi, jadi jika Anda masuk ke halaman github ke
dan Anda menggulir sepanjang jalan ke bawah disini, kita dapat melihat format untuk file
yaml pelatihan, jadi di sini saya hanya akan melanjutkan dan menyalin semua ini, kemudian
ke folder proyek, mari kita buat folder baru menjaga hal-hal yang baik dan terorganisir
namanya dikonfigurasi,
dan sekarang di sini mari kita buat hanya objek teksbaru, namanya pindah ke goal.yml, lalu
buka saja ini dengan notepad atau editor teks apa pun, dan di sini cukup sampaikan parameter
tersebut,
sekarang di sini saya tidak akan membahas terlalu banyak detail ke setiap parameterini, jika
Anda mau Anda dapat masuk ke dokumen github untuk melihat apa yang masing-masing
lakukan, jadi di sini ada cukup banyak hanya satu hal yang perlu kita ubah, yang ada di sini
nama ini di sini adalah nama otak yang ingin kita latih,
jadi di sini di agen kami, kami memberikannya nama perilaku pindah ke tujuan jadi itulah
yang perlu kamitambahkan, jadi di sini alih-alih rollerball mari kita gunakan nama itu, oke
jadi lanjutkan simpanfile itu, jadi di sini ada di folder konfigurasi pindah ke gold.yml, dan
sekarang setelah Anda memiliki file ini Anda dapat menjalankan pelatihan menggunakan
parameter ini,
jadi buka saja editor perintah dan kita akan menjalankan dash agen mlbelajar, dan kemudian
kita lulus dalam konfigurasi, jadi itu pada konfigurasi, dan kemudian kita memiliki dalam hal
dan kemudian mari kita berikan id run mari kita beri nama parameteruji, dan sekarang sama
seperti sebelumnya, jadi cukup klik masuk dan sekarang siap untuk dijalankan, jadi di sini
pada mesin mari kita atur kembali ke default sehingga menjalankan pelatihan dan
menjalankannya,
dan ya sekarang agen sedang berlatih dan itu pelatihan menggunakan parameterkustom,
sekali lagi seperti yang saya katakan pergi memeriksa halaman itu untuk melihat apa yang
mereka semualakukan, sekarang dengan satu hal lagi yang perlu kita pelajari adalah
Jadi sebelumnya kami membuat model ini yang bekerja cukupbaik, karakter pergi ke sana
dan itu menuju target tetapi seperti yang kita lihat jika kita tiba-tiba memindahkan tujuan dan
tingkatkan skenario pelatihan yang sebenarnya,jadi mari kita tambahkan beberapa keacakan
jadi di sini ketika kita memiliki episode padadimulai, mari kita mengambil posisi lokal
transformasi dan menambahkan beberapa keacakan, sehingga faktor baru 3 random.range dan
jadi di sini adalah agen pada posisi lokal 0 jadi mari kita pergi dari yang satu begitu pada
minus tiga dan mari kita naik ke mungkin ditambahsatu, jadi untuk x dari minus tiga f ke
ditambah satu f, maka untuk y mari kita tinggalkan pada nol, dan kemudian untuk z mari kita
Oke jadi kita memiliki karakter pada posisiacak, dan kemudian mari kita juga memindahkan
target transformasi, jadi di sini mari kita ambil tujuan dan mari kita lihat keacakan, pertama-
tama pada x mari kita mulai yang satu ini jadi pada 2,4 dan kita akan acak sampai itu, jadi
antara 2,4 dan 5. jadi di sini antara dua titik empat f dan lima f, jadi kita akan acak sampai itu,
jadi antara2,4 dan 5. jadi di sini antara dua titik empat f dan lima f, jadi di sini antara dua titik
empat f dan lima f, jadi di sini antara dua titik empat f dan lima f, jadi kita akan acak sampai
itu, jadi antara 2,4 dan 5. jadi di sini antara dua titik empat f dan lima f, jadikita akan acak
sampai itu, jadi antara 2,4 dan 5. jadi di sini antara dua titik empat f dan lima f, jadi kita akan
acak sampai itu, jadi antara 2,4 dan 5. jadi di sini antara dua titik empat f dan lima f, jadi kita
akan acak sampai itu, jadi antara 2,4 dan 5. jadi di sini antara dua titik empat f dan lima f, jadi
kita akan acak sampai itu,jadi antara 2,4 dan 5. jadi di sini antara dua dan kemudian untuk
tujuan ini, mari kita mulai dari semua jalan di sana jadi dari minus dua sampai ditambahdua,
oke jadi dengan ini setiap kali kita memulai episode baru kita akan memilih posisi
acakyangberbeda,
jadi ini akan memungkinkan model untuk benar-benar belajar bagaimana menuju target
daripada hanya posisitertentu, sekarang sekali lagi sebelum kita melakukan apa pun mari kita
validasi untuk memastikan bahwa semuanyabekerja, jadi di sini mari kita pilih heuristik saja,
dan ya, itu melahirkan pada posisi acak dan sekarang jika saya berakhir dan jika berada pada
posisi yang berbeda berbeda dan seterusnya, oke jadi baik karakter dan tujuan mereka berdua
pada posisi acak, oke jadi sekarang mari kita jalankan pelatihan dan memperbaiki model
sebelumnya, jadi untuk itu mari kita jalankan hal yang sama sehingga agen ml belajar kita
lulus dalamkonfigurasi, dan kemudian cara kita belajar dari otaksebelumnya, adalah dash
dash berinisial dari, dan kemudian kita lulus dalam run id yang sebelumnya kita gunakan,
yang dipindahkan ke tujuan, sehingga akan memuat otak itu, dan kemudian mari kita berikan
sama dengan pindah ke tujuan 2 oke jadi mari kita tekanenter, sekarang sudah siap untuk
belajar dan di sini mari kita hanya mengaktifkan semua lingkungan lain, dan pastikan bahwa
yang satu ini diatur ke dalam kebiasaan, sehingga belajar dan membiarkannya bermain, dan
di sini kita memiliki pelatihan di tempat kerja, dan Anda dapat melihat bahwa mereka
dan kami punya beberapa merah dan beberapa sayuran dan yap tampaknyabekerja, semua
sekarang ada satu hal terakhir yang terkait dengan pembelajaran mesin yang merupakan
visualisasi yang bagus, jadi mari kita lihat itu saat kereta kami berjalan, jadi untuk itu
membuka command prompt baru, dan di sini mari kita masuk ke folder proyek,
kemudian sekali lagi masuk ke dalam lingkunganvirtual, jadi skrip vnv aktif, jadi kita berada
di dalam lingkungan virtual dan sekarang di sini mari kita jalankan tensorboard perintah, jadi
tensorboard adalah nama utilitas yang memvisualisasikan hasil kita, dan kemudian kita
melewati folder dengan hasil kita yang secara default bernama hasil, jadi dash dash
localhost di port 6006. jadi kemudian buka saja browser dan masuk ke localhost 6006. dan
yap di sini adalah dan kita sekarang dapat memvisualisasikan semuanya, jadi yang paling
jadi kami memberinya tujuan satu ketika mencapaitarget, jadi kami harus dapat melihat ini
kemudian panjang episode juga turun yang berarti bahwa ai sedang belajar bagaimana
mencapai tujuan lebihcepat, dan pada command prompt Anda dapat melihat setiap kali
jadi klik saja pada penyegaran dan di sana kita melihat ini adalah salah satu yang saat ini kita
jalankan dan seperti yang Anda lihat dimulai di sana dan itu mengangkat semua jalan disana,
jika kita melihat ke dalam membangun persatuan kita kita dapat melihat bahwa itu
memangbekerja,
Jadi kita punya cukup banyak lautan hijau sehingga bahkan dengan posisi acak tampaknya ai
kami telah belajar bagaimana menujutarget, maka di sini Anda juga dapat memvisualisasikan
kebijakan, jadi ini semua adalah cara kerja batinnya, jadi Anda punya banyak hal seperti beta
entropi,
Anda memiliki perkiraan hadiah dansebagainya, jadi di sini Anda memiliki banyak grafik
bagi Anda untuk menganalisis dan meningkatkan pelatihan dan aiAnda, sekarang kembali ke
sini kita dapat melihat bahwa pelatihan berjalan sangat baik, jadi kita bisa berhenti berlatih
dan sekali lagi kita melihat bahwa kita menyimpan model ke posisi itu, jadi di sini mari kita
masuk ke hasil ini adalah langkah untuk pergike, mari kita menyalin otak, menempelkannya
ke asetkita,
dan sekarang di sini kita melakukan hal yang sama untuk menggunakan musimsemi, jadi
mari kita sembunyikan lingkungan lain, dan biarkan saja yang satu ini dan pilih untuk
menggunakan otak itu dan mengaturnya untuk menyimpulkan, dan jika kita berlari dan jika
ada, kita dapat memverifikasi bahwa pelatihan kita berjalan memang sangat baik,
Jadi bahkan dengan posisi acak ai cukup pintar untuk benar-benar tahu bahwa tujuannya
bukan hanya untuk bergerak ke kanan daripada bergerak menujutujuan, jadi di sini kami
telah sepenuhnya melatih ai kami dari awal tanpa memberikan perintah khusus, sekali lagi
ingat bagaimana semua yang kami lakukan adalah kami memberikannya posisi saat ini dan
posisi target,
Kami tidak mengatakannya bagaimana bergerak, kami tidak mengatakannya apa artinya kami
tidakmengatakannya, jadi aion belajar mengambil nilai-nilai itu dan mempelajari apa yang
sehingga hampir terasa seperti sihir yang merupakan kekuatan luar biasa dari
pembelajaranmesin, baiklah jadi sekarang Anda tahu segalanya untuk mulai bekerja dengan
teknologi yang sangat menarik dengan banyak aplikasi potensial, jadi pasti tetap di sini untuk
Anda dapat menjelajahi contoh resmi yang memiliki banyak kasus penggunaan
yangmengagumkan, jika Anda memiliki skenario tertentu yang ingin Anda lihat beri tahu
saya dikomentar, juga saat ini saya sedang mengerjakan kasus penggunaan match 3 jadi pasti
tetap disetel untuk itu, dan seperti yang saya katakan ada daftar putar dalam deskripsi bahwa
saya tidak akan terus diperbarui saat saya menjelajahi agen ml semakinbanyak,
jadi jika Anda menonton ini di masa depan periksa tautan itu untuk melihat semuavideo,
baiklah sehingga video ini adalah satu ton pekerjaan yang harus dibuat tetapi saya benar-
jika Anda melakukannya, silakan tekan tombol suka dan pertimbangkan untuk berlangganan
video ini dimungkinkan berkat pendukung yang luar biasaini, pergilah ke patreon.com
unitycodemonkey untuk mendapatkan beberapa fasilitas dan membantu menjaga video tetap
gratis untuk semua orang, karena selalu memposting pertanyaan apa pun yang Anda miliki di