Anda di halaman 1dari 7

Nama : Dita Auliya Sudarman

Npm : 2109500150
Prodi : Sistem Informasi
Mata Kuliah : Logika dan Algoritma

1. Algoritma menentukan luas persegi Panjang menggunakan flowgorithm


2. Algoritma menentuka luas segitiga siku-siku menggunakan flowgorithm
3. Algoritma menentukan luas lingkaran menggunakan flowgorithm
4. Review (Resume) film Coded Bias (2020)

Film coded bias bercerita tentang peneliti MIT Media Lab Joy Buolamwini,
menemukan bahwa system penegenalan wajah tidak mengeanli wajah bekulit
gelap secara akurat, ia mulai untuk mendorong undang-undang AS yang pertama
kali melawan bias dalam algoritme yang memengaruhi kita semua.
Film ini sendiri telah membuka mata kita bagaimana bias algoritma telah masuk
kesetiap aspek kehidupan manusia. Dari pengenalan wajah yang rasis, sistem
pemantauan, hingga alat pendeteksi kelayakan.
Dokumenter ini mengikuti perjalana Joy Buolamwini, ia adalah tokoh penting
dibidang kecerdasan buatan (AI),yang berjuang mengungkapkan kebanaran
tentang bias algoritma. Bias Algoritme sendiri adalah ketidakadilan yang muncul
dari keluaran dari suatu system computer. Joy Buolamwini adlah seorang ilmuan
yang mendirikan Algorithmic Justice League, setelah menyadari system
pengenalan wajah tidak diprogram untuk mengenali wajah kulit gelap.
Ia membuat cermin yang bisa mendeteksi wajah, Aspire Mirror dengan
meletakkan kamera diatasnya, sayangnya itu tak berhasil. namun Ketika ia
menggunakan topeng putih cermin itu berhasil mendeteksinya, dan Ketika ia
melepaskan topengnya program itu tidak dapat mendeteksi wajahnya, itu
membuktikan bahwa bias algoritma tidak sepenungnya akurat.
Polisi mulai memakai system pengawsan pengenalan wajah di inggris, tanpa
dasar hukum, kerangka hukun dan pengawasan apapun. Pada dasarnya polisi
mengambil alat baru. Seperti yang terjadi, seorang pria yang menutuo wajahnya
Ketika berjalan didepan sisitem pengenalan wajah dan langsung diintrogasi saat
itu juga,hanya karna ia memakai haknya dan ia tak muau dikenali, bahkan lebih
tidak masuk akal dan merasa tidak adil saat polisi melarang dan juga
memberinya denda. Pria itu hanya memakai haknya untuk menolak pemeriksaan
biometrik.
Seperti yang terjadi di hongkong, polisi memakai pengenalan wajah untuk
melacak pengunjuk rasa, namun orang juga mealwan secara kreatif. Para
pengunjuk rasa menggunakan penunjuk laser untuk mengacaukan dan
melumpuhkan teknologi.
pengenalan wajah yang dipakai polisi untuk melacak para disiden. Pengunjuk rasa
prodemokrasi mengecap hitam kamera pengawas. Tindakan ini menunjukkan bahwa
rakyat hongkong menolak visi tentang penggunaan teknologi dimasa depan.
Amy webb “saya lebih suka melihat cita-cita demokrasi barat kita kesisitem AI kelak”.
Kita mempunyak AI yang banyak memengaruhi pengambilan keputusan secara
otomatis. Jadi, apa yang anda lihat di umpan web, hal yang disorot, iklan yang
ditampilkan kepada anda, itu seringkali digerakkan oleh algoritme dengan AI yang
aktif. Jadi pandangan anda tentang dunia diatur oleh kecenrdasan buatan.
Beberaoa insinyur Amazon memutuskan akan memakai AI untuk memilah surat
lamaran pekerjaan. Namun perusaaan itu telah menyingkirkan alat rekrutmenAI, usai
tahu bahwa program itu memiliki bias terhadap Wanita.
Mesin itu hanya mereplikasi keadaan dunia saat ini, dan tak membuatkeputusan yang
etis. Mesin itu hanya membuat keputusan yang matematis.
Kita ada dimasa Ketika teknologi diterapka dengan cepat dan tak ada perlindungan.
Regulator asuransi New York menyelidiki UnitedHealth Group usai studi menunjukkan
bahwa algoritme UnitedHealth mengutamakan pelayanan Kesehatan untuk pasien
kulita putih yang sehat daripada pasien kulit hitam yang sakit. Itu salah satu contoh
terbaru diskriminasi raasial dalam algoritma atas teknologi kecerdasan buatan.
Namun, ada mesin yang dikuasai oleh pihak yang tahu begitu banyak hal tentang anda
hingga bisa memengaruhi anda secara individu.
Pada tahun 2010, facebook memutuskan untuk bereksperimen terhadap 61 juta orang.
Anda akan melihat tulisan “ ini hari pemilihan”atau anda melihat tulisan yang sama,
tetapi dengan keluku dari foto profil anda dan teman anda mengklik “aku memilih”,
nam adan daftar pemilih dicocokkan. Facebook menggrakkan 300.000 orang ke tempat
pemungutan suara.
Cara mengetahui dampak algoritmis adalah dengan melihat hasilnya. Misalnya saat
orang amerika dipandang rendah,lalu dipilih dan di optimalkan untuk gagal. Jadi, seperti
mencari profil tertentudari orang yang bisa mendapat hipotek subprime, bertaruh nyawa
bahwa mereka akan gagal lalu menyita dan melenyapkan kekayaan mereka. Itulah
permainan algoritme yang berasal dari wall street.
Selama krisis hipotek, warga kulit hitam mengalami kerugian terbesar dalam sejarah
Amerika Serikat.
Buolamwini menemukan bias gender dan ras pada teknologi-teknologi yang kerap
diklaim netral dan objektif itu. Namun ia tak berhenti disitu. Persolan ini tak terbatas
pada perangkat lunak pengenalan dan analisis wajag tetapi pada hamper seluruh
teknologi yang mamanfaatkan algoritme dan Big Data. Seperti AI dan machine
Learning.
Dalam documenter ini, kitab isa merasakan daya Tarik-menarik antara dalim keamanan
nasional dan ketertiban sosial dengan hak kebebasan dan kesetaraan. Atas nama dalih
yang pertama, masin-mesinpintar itu memilah dan menetapkan kelompok-kelompok
masyrakat yang “beresiko tinggi” pada ujungnya proses kerja matematika algoritmis
seperti ini akan makin meminggirkan kelompok masyarakat yang kurang beruntung
secara ekonomi dan finansial.
Hal ini diperparah dengan fakta mesin-mesin pintar itu kerap salah identifikasi. Di
inggris, perangkat lunak pengenalan dan analisis wajah yang digunakan kepolosian
telah melakukan kesalahan 2.400 kali. Warga kulit berwarna secara serampangan
dicegat di jalanan atau ditahan hanya karena AI mengidentifikasi mereka sebagai
“criminal” atau “teroris”.
Ketika membicaraka AI, ada kecenderunga menganggap bias algoritma sebagai hal
yang sepele yang bisa diulang.pada kenyataannya,orang berkuasa seringkali
memaksakan ide-ide lama dan buruk seperti pseudasains rasis menggunakan computer
dan matematika sebagai cara menghindari akuntabilitas.
Film ini juga menyampaikan pesan pertama, mesti ada keterlibatan besar publik dalam
menentukan penggunaan AI. Salah satu caranya adalahdengan memanfaatkan teknologi
ini dengan sebaik dan senormal mungkin. Kedua, jangan pernah memercayakan
sepenuhnya aspek kehidupan kita kepada mesin.
Berkat Coded Bias, kita akhirnya tahu bahwa sistem operasi dasar masyarakat akan
terus memproduksi teknologi baru yang jauh lebih berbahaya, kecuali kita membongkar
dan menciptakan sesuatu yang lebih beik untuk menggantikannya.

Anda mungkin juga menyukai