Anda di halaman 1dari 55

Cognitive Ergonomics: Human Factors in Automation

Systems

Dosen Mata Kuliah:


Dr. Eng. Ir. Listiani Nurul Huda, M.T., IPM

Disusun Oleh :
1. Tiurmatarida Panjaitan (190403059)
2. Deswita Gloria S. (190403131)

PROGRAM STUDI TEKNIK INDUSTRI


F A K U L T A S T E K N I K
UNIVERSITAS SUMATERA UTARA
M E D A N
2022
Wickens, Christopher D., dkk. 2013. Engineering Psychology and Human
Performance. Pearson: USA
Ch. 12. Automation and Human Performance
CHAPTER 12
OTOMASI DAN KINERJA MANUSIA
(OTOMATION AND HUMAN PERFORMANCE)

1. PERKENALAN
Sejak penemuannya, komputer menjadi lebih kecil, lebih cepat, lebih
bertenaga, lebih murah, dan—sampai taraf tertentu—lebih “cerdas”. Perubahan-
perubahan ini terjadi secara eksponensial daripada laju linier— percepatan yang
dikenal sebagai "Hukum Moore" (Moore, 1965)—dan telah memicu pengenalan
otomatisasi berbasis komputer secara luas, yang, dari awal yang kecil di tahun
1960-an, telah merambah semua bagian kehidupan saat ini. Sistem otomatis
ditemukan di semua aspek pekerjaan — di bidang manufaktur, pembangkit listrik,
perawatan kesehatan, transportasi, kantor, rumah, dan di banyak industri lainnya.
Pertumbuhannya begitu meluas sehingga otomatisasi akan tetap ada. Bayangkan
hidup tanpa GPS, mesin pencari internet, dan perdagangan elektronik. Dalam waktu
dekat, perangkat otomatis mini dapat menembus pakaian kita dan bahkan mungkin
tubuh kita. Sejauh mana otomasi telah merasuki tempat kerja dan kehidupan sehari-
hari ditangkap dengan baik oleh volume besar tentang otomasi yang diterbitkan
oleh Nof (2009), yang membutuhkan lebih dari 90 bab untuk menjelaskan aplikasi
yang tersebar luas ini!
Banyak faktor yang bertanggung jawab atas penerapan otomatisasi secara
luas, yang menunjukkan sedikit tanda-tanda akan memperbaiki. Faktor tersebut
meliputi masalah ekonomi, khususnya mengurangi biaya tenaga kerja,
meningkatkan efisiensi, meningkatkan persyaratan keselamatan, dan tetap
kompetitif di pasar (Satchell, 1998). Apakah hasil seperti itu terwujud?—Untuk
sebagian besar, ya.
Otomasi telah menghasilkan banyak manfaat. Pertimbangkan dua domain
di mana otomatisasi umum: perawatan kesehatan dan penerbangan. Di masa lalu,
rekam medis elektronik dan sistem pendukung keputusan telah berkontribusi pada
penurunan hasil pasien yang merugikan (Gawande & Bates, 2000; Morrow,
Wickens, & North, 2006). Pengingat klinis otomatis yang memandu dokter
memperhatikan masalah kesehatan untuk pasien tertentu dan merekomendasikan
tindak lanjut juga meningkatkan perawatan pasien (Karsh, 2010; Vashitz et al.,
2009). Dalam operasi, "navigasi yang dipandu gambar" yang mendukung ahli
bedah selama operasi mastektomi dapat meningkatkan keselamatan pasien
(Manzey et al., 2011). Dalam penerbangan, otomatisasi memungkinkan pesawat
untuk terbang dengan rute yang lebih langsung, sehingga mengurangi biaya bahan
bakar. Catatan keamanan pesawat komersial yang lebih otomatis juga terus
meningkat dibandingkan dengan generasi pesawat sebelumnya (Billings, 1997;
Pritchett, 2009; Wiener, 1988). Manfaat serupa telah didokumentasikan di banyak
domain lain di mana otomatisasi telah diterapkan — di tempat kerja, di transportasi,
di kegiatan rekreasi, dan di rumah (Nof, 2009; Sheridan & Parasuraman, 2006).
Manfaat utama otomatisasi, terlepas dari area aplikasinya, adalah dapat,
jika dirancang dengan hati-hati, mengurangi beban kerja pengguna manusia, baik
mental maupun fisik. Pengurangan beban kerja seperti itu dapat terjadi dalam
pelaksanaan respons dan pengerahan otot (pertimbangkan pembuka kaleng
otomatis, obeng, atau rautan pensil), dalam pilihan keputusan (ingat, seperti yang
dibahas dalam Bab 8, upaya mental yang terlibat dalam membuat keputusan
berisiko tinggi dalam situasi yang tidak biasa dan dalam perolehan dan analisis
informasi (ingat biaya pemindaian tampilan yang berantakan, atau secara mental
menambahkan dua angka). Lebih dari segalanya, potensi otomatisasi untuk
mengurangi beban kerja adalah hal yang membuatnya menarik bagi operator
manusia di lingkungan di mana waktu stress tinggi atau di lingkungan kerja di mana
upaya kognitif harus diminimalkan karena kebutuhan untuk melakukan banyak hal
lain secara bersamaan. Namun, seperti yang akan kita lihat nanti di bab ini, ini fitur
pengurangan beban kerja sekaligus dapat mengundang jenis masalah baru saat
otomatisasi diperkenalkan.
Mengingat manfaat luas yang diberikan oleh otomasi, tidak mengherankan
bahwa para desainer telah mendorong otomasi yang lebih besar dan lebih kuat
ketika mereka ditugaskan untuk mengembangkan sistem baru. Hal ini sering
dilakukan dengan keyakinan bahwa human error akan dihilangkan, atau tingkat
beban kerja operator yang berlebihan akan dikurangi, sehingga peluang terjadinya
human error akan berkurang. Namun, keyakinan seperti itu ternyata salah.
Sementara otomatisasi dapat mengurangi beberapa bentuk kesalahan, itu dapat
memperkenalkan yang baru (Pritchett, 2009; Sarter, 2008), dan dalam beberapa
kasus otomatisasi dapat meningkatkan secara paradoks daripada mengurangi beban
kerja mental manusia (Wiener & Curry, 1980). Penelitian tentang interaksi
manusia-otomatisasi telah menunjukkan bahwa otomatisasi mengubah sifat tugas-
tugas kognitif yang harus dilakukan manusia, seringkali dengan cara yang tidak
terduga atau tidak diantisipasi oleh para desainer (Parasuraman & Riley, 1997).
Akibatnya dan ironisnya, ketika otomatisasi menjadi lebih kuat dan
mengasumsikan lebih banyak otoritas, peran manusia sebenarnya menjadi lebih
penting (Parasuraman & Wickens, 2008).
Pendekatan desain yang berpusat pada teknologi sebagian besar
bertanggung jawab atas masalah kinerja manusia yang muncul dengan sistem
otomatis. Desainer biasanya memusatkan energi mereka pada sensor, algoritme,
dan aktuator yang masuk ke sistem otomatis, dengan sedikit atau tanpa perhatian
diberikan pada karakteristik manusia pengguna sistem tersebut. Sekarang ada
banyak bukti untuk mendukung pandangan bahwa daripada berfokus hanya pada
fitur teknis otomatisasi, desainer juga harus mempertimbangkan kinerja manusia,
suatu pendekatan yang kadang disebut otomatisasi yang berpusat pada manusia
(Billings, 1997). Oleh karena itu, tantangannya adalah merancang gabungan kinerja
otomasi- manusia.
Dalam bab ini kita membahas bagaimana tantangan itu dapat dipenuhi.
Kami mempertimbangkan berbagai aspek kemampuan dan keterbatasan manusia
yang muncul saat manusia berinteraksi dengan otomatisasi dan yang telah
dijelaskan secara luas di bab-bab sebelumnya dari buku ini. Karena otomasi dapat
diterapkan pada seluruh rentang fungsi manusia, mulai dari penginderaan melalui
pengambilan keputusan hingga tindakan, banyak komponen model pemrosesan
informasi yang diperkenalkan di Bab 1 relevan untuk memahami interaksi otomasi
manusia. Kami memulai pemeriksaan kami tentang masalah dalam interaksi
manusia-otomatisasi dengan terlebih dahulu membahas contoh dan tujuan
otomatisasi.

2. CONTOH DAN TUJUAN OTOMASI


Otomasi dapat didefinisikan sebagai kinerja mesin (biasanya komputer)
dari fungsi yang sebelumnya dilakukan, baik secara penuh atau sebagian, oleh
manusia (Parasuraman & Riley, 1997). Dalam beberapa kasus, istilah otomatisasi
juga telah diterapkan untuk menggambarkan tugas-tugas yang tidak dapat
dilakukan manusia (misalnya, merasakan di luar spektrum yang terlihat atau
terdengar, atau robot yang mengangkat beban berat atau menangani bahan
beracun). Otomasi dapat dijelaskan berdasarkan tujuannya, fungsi kinerja manusia
yang digantikannya, dan kekuatan serta kelemahan yang ditunjukkannya saat
manusia berinteraksi dengan perangkat otomatis mulai dari sistem alarm sederhana
hingga sistem autopilot dan pengambilan keputusan yang rumit. Tujuan otomatisasi
yang berbeda dapat ditugaskan ke lima kategori umum.

2.1. Tugas yang Tidak Dapat Dilakukan Manusia


Otomasi terkadang diperlukan karena dapat menjalankan fungsi yang tidak
dapat dilakukan oleh operator manusia. Kategori ini menggambarkan banyak
operasi matematika kompleks yang dilakukan oleh komputer (misalnya, yang
terlibat dalam analisis statistik). Di ranah sistem dinamis, contohnya termasuk
panduan kontrol dalam roket pendorong berawak, di mana penundaan waktu
operator manusia akan menyebabkan ketidakstabilan (lihat Bab 10); aspek kontrol
dalam reaksi nuklir kompleks, di mana proses dinamisnya terlalu kompleks untuk
ditanggapi oleh operator manusia secara online; atau robot yang beroperasi di ruang
terbatas yang berbahaya, seperti penggunaannya dalam mencari korban di World
Trade Center yang runtuh setelah serangan teroris 11 September (Casper &
Murphy, 2003). Dalam keadaan ini dan yang serupa, otomatisasi tampaknya penting
dan tidak dapat dihindari, berapa pun biayanya.
2.2. Batasan Kinerja Manusia
Kategori otomatisasi ini mencakup fungsi-fungsi yang dapat dilakukan
oleh operator manusia tetapi secara buruk atau dengan biaya beban kerja yang tinggi
karena kerumitan sistem dan beban informasi. Contohnya termasuk autopilot yang
mengontrol banyak aspek penerbangan pada pesawat komersial (Degani, 2004;
Pritchett, 2009; Sarter & Woods, 1995; Sebok et al., 2012), dan otomatisasi fungsi
pemantauan kompleks tertentu, seperti jarak dekat darat sistem peringatan (GPWS),
memperingatkan pilot tentang kemungkinan tabrakan dengan medan, atau
peringatan kemungkinan tabrakan dengan pesawat lain (Wickens, Rice, et al.,
2009). Upaya juga telah diarahkan untuk mengotomatisasi diagnosis dan proses
pengambilan keputusan di bidang-bidang seperti kedokteran (Garg et al., 2005;
Morrow et al., 2006), kontrol proses nuklir (Woods & Roth, 1988), navigasi kapal
(Lee & Sanquist, 2000), dan koordinasi berbagai pesawat tak berawak dan
kendaraan darat (Barnes & Jentsch, 2010; Cummings et al., 2007; Parasuraman et
al., 2007). Operasi komando dan kontrol militer juga semakin gencar dilakukan
secara network-centric, di mana banyak entitas terhubung bersama dalam jumlah
besar, kompleks, jaringan terdistribusi, lebih lanjut mengamanatkan penggunaan \
agen otomatis (Cummings et al., 2010). Pendekatan ini umumnya membutuhkan
penerapan kecerdasan buatan, dalam bentuk sistem pakar (Darlington, 2000) atau
perangkat lunak berbasis agen (Lewis, 1998).

2.3. Meningkatkan atau Membantu Kinerja Manusia


Otomasi dapat membantu manusia di area di mana mereka menunjukkan
keterbatasan. Kategori ini mirip dengan yang sebelumnya, tetapi otomasi tidak
dimaksudkan sebagai pengganti aspek integral dari tugas, tetapi sebagai bantuan
untuk tugas periferal atau operasi mental yang diperlukan untuk menyelesaikan
tugas utama. Seperti yang telah kita lihat di bab-bab sebelumnya, ada hambatan
utama dalam kinerja manusia, khususnya keterbatasan dalam memori kerja manusia
dan dalam prediksi atau antisipasi yang akan berguna untuk otomatisasi. Tampilan
otomatis atau gema visual dari pesan pendengaran adalah salah satu contohnya,
seperti yang dibahas dalam Bab 6 dan 7. Contohnya mungkin nomor telepon yang
diambil dari informasi operator yang muncul di layar telepon kecil; atau instruksi
tautan data digital dari kontrol lalu lintas udara “terhubung” ke pesawat yang dapat
muncul sebagai pesan teks di konsol pilot (Helleberg & Wickens, 2003).
Contoh lain adalah “scratch pad” yang ditampilkan komputer dari output
tes diagnostik dalam diagnosis kesalahan industri kimia, nuklir, atau kontrol proses.
Seperti yang disarankan di Bab 8, prosedur ini akan sangat mengurangi beban
memori. Seperti disebutkan beberapa kali di sepanjang buku ini, tampilan prediktif
apa pun yang akan melepaskan beban kognitif manusia untuk membuat prediksi
akan sangat bermanfaat. Contoh lain dari bantuan otomatis adalah opsi
"decluttering" tampilan, yang dapat menghilangkan detail yang tidak perlu dari
tampilan elektronik saat tidak diperlukan, dengan demikian memfasilitasi proses
perhatian yang terfokus dan selektif (St. John et al., 2005; Yeh & Wickens, 2001).

2.4. Ekonomi
Otomasi sering diperkenalkan karena lebih murah daripada membayar
orang untuk melakukan pekerjaan yang setara atau dilatih untuk pekerjaan itu. Jadi,
kita melihat robot menggantikan pekerja di banyak pabrik manufaktur dan menu
telepon otomatis menggantikan suara manusia di ujung telepon. Kendaraan udara
tak berawak jauh lebih murah untuk diproduksi dan diterbangkan daripada pesawat
berawak (Cooke et al., 2006). Tapi seperti yang ditunjukkan oleh contoh menu
telepon, ekonomi yang dicapai dengan otomatisasi semacam itu tidak serta merta
membuat layanan “ramah pengguna” bagi manusia yang harus berinteraksi
dengannya (Landauer, 1995; St. Amant et al., 2004).

2.5. Produktivitas
Ada banyak contoh di mana tuntutan peningkatan produktivitas
dipaksakan ketika tenaga kerja terbatas. Misalnya, permintaan yang meningkat
untuk perjalanan udara menempatkan lebih banyak pesawat di angkasa, tetapi
tenaga kerja pengendali lalu lintas udara yang terampil terbatas. Dokter mungkin
perlu menemui lebih banyak pasien ketika jumlah mereka terbatas. Militer sering
berusaha menerbangkan lebih banyak kendaraan udara tak berawak dengan jumlah
pilot terbatas untuk meningkatkan produktivitas pengawasan, dan karenanya
mendorong lebih banyak UAV untuk diawasi oleh satu pilot. Dalam kasus seperti
itu, beban kerja terlampaui dengan cepat kecuali lapisan otomatisasi diperkenalkan
(Cummings & Nehme, 2010; Dixon et al., 2005).

3. INSIDEN DAN KECELAKAAN TERKAIT OTOMASI


Meskipun otomasi telah menghasilkan banyak manfaat, pada saat yang
sama telah menimbulkan masalah baru yang terkadang menyebabkan kecelakaan.
Beberapa insiden dan kecelakaan yang dipublikasikan secara luas telah
menggarisbawahi perlunya merancang sistem otomatis dengan mempertimbangkan
faktor manusia di awal fase persyaratan sistem. Banyak insiden yang melibatkan
pesawat otomatis komersial (Billings, 1997; Parasuraman & Byrne, 2003). Analisis
kecelakaan ini tidak hanya mengungkapkan bahwa otomatisasi dapat
memperkenalkan kerentanan baru dalam kinerja sistem, tetapi juga
menggambarkan bagaimana kemampuan dan keterbatasan manusia dibawa ke garis
depan ketika desainer memperkenalkan otomatisasi dari perspektif yang murni
berpusat pada teknologi. Kami menjelaskan beberapa dari banyak insiden dan
kecelakaan terkait otomasi.
Peringatan harus diperhatikan sebelum menjelaskan contoh-contoh ini.
Sebagian besar kecelakaan adalah hasil dari berbagai kejadian dan kondisi pemicu
yang pada akhirnya mengarah pada peristiwa tersebut (mis., Reason, 1990, 2008).
Akibatnya, menghubungkan kecelakaan secara eksklusif dengan desain otomasi
yang buruk bisa jadi sulit. Namun demikian, analisis beberapa insiden telah
menunjukkan peran utama otomatisasi (Funk et al., 1999).
Contoh awal adalah kecelakaan pesawat L-1011 tahun 1972 di Florida
Everglades saat turun ke Miami. Awak menjadi sibuk dengan pemecahan masalah
dengan lampu indikasi roda pendaratan, dan mereka tidak menyadari bahwa fungsi
"penahan ketinggian" dari autopilot telah terputus secara tidak sengaja. Faktor
utama yang berkontribusi terhadap kecelakaan ini adalah umpan balik yang buruk
pada status otomasi yang disediakan oleh sistem (Norman, 1990). Dalam
laporannya tentang kecelakaan tersebut, Dewan Keselamatan Transportasi
Nasional (NTSB) menyatakan bahwa pemutusan otomasi harus diberi tanda yang
jelas sehingga pilot dapat memvalidasi apakah itu disengaja atau tidak (NTSB,
1973). Dalam kecelakaan L-1011, prinsip bahwa status otomasi dan perubahan
status harus menonjol bagi operator manusia dilanggar. Autopilot terbaru sekarang
memberikan peringatan aural dan/atau visual saat memutuskan sambungan.
Peringatan tetap aktif selama beberapa detik atau memerlukan input perintah
pemutusan kedua oleh pilot sebelum dibungkam.
Di laut, kecelakaan di mana peringatan yang rendah dan kepercayaan
operator yang tinggi terhadap otomatisasi (kepuasan diri) merupakan faktor utama
dalam kandasnya kapal pesiar Royal Majesty di lepas pantai Nantucket,
Massachusetts, yang mengakibatkan kerusakan bendungan senilai beberapa juta
dolar usia kapal (Parasuraman & Riley, 1997). Kapal ini dilengkapi dengan
automatic radar plot ting aid (ARPA) untuk navigasi yang didasarkan pada keluaran
penerima GPS. Awak anjungan harus memantau ARPA sambil melakukan tugas
lain. Karena hilangnya sinyal GPS karena kabel yang robek dari antena, sistem
ARPA kembali ke mode "perhitungan mati" dan tidak mengoreksi pasang surut dan
angin yang ada, sehingga kapal secara bertahap diarahkan ke tepian pasir di perairan
dangkal. Perubahan dalam mode otomasi ditandai dengan perubahan yang sulit
dilihat dalam satu huruf pada layar kristal cair kecil (lihat mengubah kebutaan di
Bab 3). Pada saat yang sama, para kru terus mengikuti tampilan ARPA selama lebih
dari satu hari dan gagal memperhatikan indikator lain bahwa kapal berada di
perairan dangkal yang berbahaya, seperti komunikasi dari kapal penangkap ikan
kecil di area tersebut dan lampu di pantai. Laporan NTSB (1997) tentang insiden
tersebut mengutip desain antarmuka yang buruk, ketergantungan kru yang
berlebihan pada sistem ARPA, dan kepuasan terkait dengan pemantauan yang tidak
memadai terhadap sumber informasi navigasi lainnya (seperti radar lain dan
pengintaian visual).
Pergolakan di Wall Street selama beberapa tahun terakhir memberikan
contoh ketiga yang menggambarkan peran otomatisasi dalam insiden bencana.
Krisis keuangan pada tahun 2008 dan 2010 terkait langsung dengan penggunaan
perdagangan derivatif terkomputerisasi dan bentuk transaksi otomatis lainnya di
pasar saham. Perdagangan otomatis telah lama disebut-sebut untuk keuntungan
ekonominya (Domowitz, 1993; Steil, 2001), tetapi konsekuensi yang tidak
diinginkan adalah pengembangan dari apa yang disebut perdagangan frekuensi
tinggi, di mana jutaan saham diperdagangkan secara otomatis tanpa campur tangan
manusia, menciptakan perdagangan yang ekstrim. volatilitas yang menyebabkan
kehancuran pasar pada tahun 2008 dan lagi pada tahun 2010. Kompleksitas dan
opasitas algoritme yang mendasari perdagangan otomatis, ditambah dengan
pengguna manusia (termasuk di badan pengatur seperti Securities and Exchange
Commission) yang memiliki pemahaman terbatas tentang otomatisasi algoritma,
adalah alasan utama krisis (McTeague, 2011). Selanjutnya, seperti dicatat oleh
Taleb (2007), masalah dengan banyak algoritma dalam model keuangan yang serba
salah adalah bahwa mereka berasumsi bahwa pengambilan keputusan oleh manusia
sudah optimal. Seperti dibahas sebelumnya dalam Bab 8, sejumlah besar penelitian
telah menunjukkan, bagaimanapun, bahwa pengambilan keputusan manusia
didominasi oleh heuristik dan "jalan pintas" kognitif lainnya yang bekerja hampir
sepanjang waktu (Tversky & Kahneman, 1974). Sayangnya, heuristik keputusan ini
tidak pernah digabungkan dalam algoritme otomasi.

4. TINGKAT DAN TAHAPAN OTOMASI


Analisis insiden dan kecelakaan terkait otomasi mengungkapkan bahwa
fungsionalitas otomasi memiliki pengaruh besar pada seberapa baik operator
manusia berinteraksi dengan otomasi dalam memenuhi tujuan kinerja sistem
mereka. Berbagai fungsi yang dapat dilakukan otomatisasi telah dijelaskan dalam
beberapa cara. Otomasi tidak semua atau tidak sama sekali, tetapi dapat bervariasi
di seluruh rangkaian level, dari level terendah performa manual sepenuhnya (tanpa
otomatisasi) hingga level tertinggi otomatisasi penuh. Sheridan dan Verplanck
(1978), dalam mengusulkan konsep pengawasan pengawasan, pertama
menyarankan taksonomi dari 10 tingkat otomatisasi tersebut. Pengawasan kontrol
mengacu pada sistem di mana operator manusia tidak secara langsung beroperasi
pada pabrik fisik yang dikendalikan tetapi melakukannya melalui perantara,
biasanya komputer, yang memiliki efektor untuk bertindak terhadap lingkungan
berdasarkan informasi yang diperoleh dari sensor (Sheridan, 2002); Sheridan &
Parasuraman, 2006).

GAMBAR 12.1. Tingkat skala otomasi (menurut Sheridan & Verplanck,


1978).

Gambar 12.1 menunjukkan skala Sheridan-Verplanck 10 poin, dengan


level yang lebih tinggi menunjukkan peningkatan otonomi komputer atas tindakan
manusia. Misalnya, pada level 2 yang rendah, beberapa opsi diberikan kepada
manusia, tetapi sistem tidak menentukan lebih lanjut keputusan mana yang dipilih.
Contoh otomatisasi level 4 adalah sistem deteksi dan resolusi konflik yang memberi
tahu pengawas lalu lintas udara tentang konflik di jalur penerbangan dua pesawat
dan menyarankan penyelesaian, tetapi pengontrol tetap memiliki wewenang untuk
mengeksekusi alternatif itu atau memilih yang lain. Pada level 6 yang lebih tinggi,
sistem hanya memberikan waktu terbatas kepada manusia untuk memveto sebelum
melakukan pilihan keputusan. Sheridan selanjutnya menyempurnakan skala ini
dalam karya yang diterbitkan berikutnya (Sheridan, 2002; Sheridan & Parasuraman,
2006) dan lainnya telah mengusulkan taksonomi terkait (Endsley & Kaber, 1999).
Perlu dicatat bahwa konsep level otomatisasi tidak mengharuskan adanya
10 level; tidak ada "angka ajaib" 10. Yang paling penting adalah bahwa level
didefinisikan sedemikian rupa sehingga level yang lebih tinggi menentukan lebih
banyak tanggung jawab untuk otomatisasi dan mengurangi pekerjaan kognitif bagi
manusia. Konsep tingkat otomasi juga tidak menyiratkan bahwa manusia dan
otomasi bekerja sebagai agen independen. Seperti yang pertama kali dicatat oleh
Sheridan dan Verplanck (1978) dalam deskripsi mereka tentang konsep kontrol
pengawasan, komponen manusia dan mesin saling bergantung, dengan manusia
membuat rencana untuk mengeksekusi melalui mesin, memantau tindakannya, dan
"mengajarkan" apa yang harus dilakukan selanjutnya. Namun, tingkat relatif
manusia terlibat dalam aktivitas ini bervariasi dengan tingkat otomatisasi.
Misalnya, karena otomatisasi mengambil lebih banyak tanggung jawab, kebutuhan
manusia untuk pemantauan meningkat (Parasuraman, 1987).
Skala Sheridan-Verplanck didasarkan pada berbagai tingkat keterlibatan
dan kontrol manusia versus otomatisasi, tetapi orang juga dapat memikirkan
otomatisasi juga diterapkan pada berbagai tahap pemrosesan informasi, mulai dari
penginderaan melalui pengambilan keputusan hingga tindakan. Buku ini telah
disusun dalam kerangka kerja yang menekankan tahapan pemrosesan informasi,
dan otomatisasi juga dapat dikonseptualisasikan dalam hal bagaimana menambah
atau membantu tahapan pemrosesan yang berbeda tersebut. Parasuraman dkk.
(2000, 2008) memperluas konsep otomasi tingkat untuk mencakup tahapan otomasi
dalam sistem manusia-mesin. Dalam versi yang diperluas ini, bentuk yang lebih
sederhana dari model pemrosesan informasi manusia yang dijelaskan dalam Bab 1
diadopsi, model empat tahap yang terdiri dari akuisisi informasi, analisis informasi,
pengambilan keputusan, dan implementasi tindakan (lihat Gambar 12.2).

Gambar 12.2. Model Otomatisasi Level untuk Tahapan Pemrosesan


Informasi yang Berbeda (menurut Parasuraman, Sheridan, & Wickens, 2000).
Tahap pertama dalam model Parasuraman et al. (2000) mengacu pada
perolehan dan pendaftaran berbagai sumber informasi. Tahap ini meliputi
pemrosesan sensorik, pemrosesan awal data sebelum persepsi penuh, dan perhatian
selektif. Misalnya, alarm yang dibahas di Bab 2 adalah bentuk otomatisasi yang
dirancang untuk mengarahkan perhatian pengguna ke suatu masalah. Tahap kedua
melibatkan manipulasi dan integrasi informasi yang diproses dan diambil dalam
memori kerja. Tahap ini juga dapat dikonseptualisasikan untuk memasukkan
operasi kognitif seperti latihan, integrasi, dan inferensi, seperti penilaian situasi dan
diagnosis otomatis. Namun, operasi semacam itu diusulkan terjadi sebelum
pengambilan keputusan dan pemilihan tindakan, yang merupakan tahap ketiga di
mana otomatisasi membantu dalam membuat pilihan. Tahap keempat dan terakhir
melibatkan penerapan respons atau tindakan yang konsisten dengan pilihan
keputusan. Model mengusulkan bahwa otomatisasi dapat diterapkan pada tingkat
yang berbeda untuk masing-masing dari empat tahap ini dari operasi manual
sepenuhnya hingga otomatisasi penuh.
Sementara model empat tahap menyederhanakan sampai batas tertentu
kompleksitas model pemrosesan informasi manusia yang dibahas di seluruh buku
ini, dengan banyak putaran umpan balik dan memanfaatkan pemrosesan paralel,
telah terbukti bermanfaat sebagai kerangka kerja dengan implikasi luas untuk
desain otomasi. Selain itu, model dukungan otomasi tidak perlu serumit manusia
yang dimaksudkan untuk diselesaikan.
Gambar 12.2 memberikan skema model level dan tahapan otomatisasi.
Sistem tertentu dapat melibatkan otomatisasi keempat dimensi pada tingkat yang
berbeda. Jadi, misalnya, sistem tertentu (A) dapat dirancang untuk memiliki tingkat
otomatisasi akuisisi informasi, analisis informasi, dan pengambilan keputusan
tingkat sedang hingga tinggi, tetapi otomatisasi tindakan tingkat rendah. Sistem lain
(B), di sisi lain, mungkin memiliki otomatisasi tingkat tinggi di keempat dimensi.
Contoh tipe A adalah sistem Theatre High Altitude Area Defense (THAAD).
THAAD, yang digunakan untuk mencegat rudal balistik (Departemen Angkatan
Darat, 2003), memiliki tingkat otomatisasi yang relatif tinggi di seluruh tahapan
informasi dan keputusan; namun, otomatisasi implementasi tindakan rendah,
memberi manusia kendali penuh atas penembakan misil. Di sisi lain, Robonaut,
robot yang digunakan dalam tugas kendaraan ekstra selama misi luar angkasa,
merupakan contoh tipe B, dengan otomatisasi tinggi di semua tahapan (Bluethmann
et al., 2003). Kami menggambarkan setiap tahap dalam taksonomi sebagai berikut.

4.1. Perolehan Informasi Otomatisasi


Perolehan informasi (otomatisasi tahap 1) berlaku untuk pengindraan dan
pendaftaran data masukan. Operasi ini setara dengan tahap pemrosesan informasi
manusia pertama, mendukung proses indera manusia dan perhatian selektif.
Otomasi akuisisi informasi tingkat rendah dapat melibatkan manipulasi sensor
untuk memindai dan mengamati. Misalnya, kendaraan udara tak berawak modern
(UAV) biasanya memiliki kamera yang dapat memberikan umpan video dari suatu
pemandangan kepada operator jarak jauh dan mampu melakukan fitur seperti
memiringkan atau memperbesar (Cooke et al., 2006). Di bidang perawatan
kesehatan, otomasi seperti rekam medis elektronik (EMR) dapat membantu dokter
dengan mengarahkan perhatian selektif ke sumber informasi tentang pasien atau
pengobatan yang mungkin mereka gunakan. Tingkat otomatisasi yang agak lebih
tinggi pada tahap ini dapat melibatkan pengorganisasian informasi yang masuk
menurut beberapa kriteria (misalnya, daftar prioritas dan penyorotan sebagian
informasi). Misalnya, fasilitas kontrol lalu lintas udara modern menggunakan
“electronic flight strips” yang memiliki kemampuan mendaftarkan pesawat dalam
hal prioritas penanganan oleh pengontrol. Dalam interaksi manusia-komputer,
"ping" dari email yang baru masuk, atau penyorotan kata yang salah eja
memberikan panduan perhatian.
Seperti disebutkan dalam Bab 2 di bagian teori deteksi sinyal, operator
manusia kadang-kadang dapat gagal mendeteksi kejadian kritis di lingkungan, dan
kegagalan untuk mengetahui target kritis tersebut dapat lebih umum terjadi jika
masa kerja diperpanjang (kewaspadaan). Otomatisasi perolehan informasi dapat
mengurangi kedua masalah tersebut dengan menyediakan alarm yang mengarahkan
perhatian operator ke peristiwa tersebut. Ketika alarm semacam itu hanya dipicu
oleh sensor, mereka dapat dicirikan sebagai relatif "bodoh" dan terkait dengan
otomatisasi perolehan informasi (tahap 1) tingkat rendah. Namun, ketika alarm
mengintegrasikan informasi dari beberapa sensor untuk membuat kesimpulan
mengenai identitas atau tingkat keparahan peristiwa kritis, maka alarm "pintar"
tersebut memenuhi syarat sebagai otomatisasi analisis informasi (tahap 2). Alarm
kebakaran yang mengintegrasikan suhu dan konsentrasi partikulat mungkin
merupakan contoh sederhana dari integrasi tersebut. Pritchett (2009) memberikan
contoh kedua jenis tersebut karena digunakan dalam sistem peringatan kokpit.

4.2. Analisis Informasi Otomasi


Analisis informasi melibatkan dukungan fungsi kognitif seperti memori
kerja dan proses inferensial. Otomasi tahap 2 tingkat rendah dapat melibatkan
pemrosesan data yang masuk dan presentasi pada tampilan operator dari proyeksi
masa depan data tersebut, atau yang disebut tampilan tren atau prediktor (Yin et al.,
2011, lihat Bab 5). Misalnya, ruang kontrol pembangkit listrik tenaga nuklir
memiliki pajangan yang menunjukkan keadaan pembangkit saat ini dan masa depan
yang diantisipasi (Moray, 1997). Tampilan prediktor tersebut juga dibahas dalam
Bab 5 sehubungan dengan penggunaannya dalam lingkungan kontrol proses.
Tingkat otomatisasi yang lebih tinggi pada tahap ini melibatkan integrasi nilai
informasi daripada hanya prediksi. Dalam kasus seperti itu, sistem menggabungkan
beberapa variabel masukan menjadi satu nilai atau objek, seperti dalam tampilan
poligon terintegrasi yang digunakan dalam kontrol proses atau pengaturan bedah
(Smith et al., 2006). Dalam kedua contoh ini, integrasi informasi membantu
operator manusia dengan mengurangi permintaan memori kerja dan kebutuhan
pemrosesan inferensial yang mudah. Alat bantu diagnostik dalam kedokteran
adalah contoh prototipe otomatisasi tahap 2 (Garg et al., 2005). Begitu juga
keluaran dari paket statistik komputer yang membuat kesimpulan bahwa dua rata-
rata berbeda dengan kemungkinan tertentu. Tingkat otomatisasi yang lebih rendah
dapat menandakan interval kepercayaan. Level yang lebih tinggi hanya akan
menandakan "signifikan" atau "tidak signifikan".
Perbedaan antara otomatisasi tahap 1 dan 2 berhubungan erat dengan
perbedaan antara kesadaran situasi level 1 (pemberitahuan) di satu sisi, dan SA level
2 dan 3 (inferensi dan prediksi) di sisi lain, seperti yang dibahas dalam Bab 7.
Otomatisasi tahap 1 membantu (atau menggantikan) yang pertama, tahap 2
membantu yang kedua.

4.3. Pengambilan Keputusan dan Pemilihan Tindakan


Tahap ketiga, pemilihan keputusan dan tindakan, melibatkan pemilihan
salah satu dari alternatif pilihan keputusan. Otomatisasi tahap 3 melibatkan
penyediaan pembuat keputusan manusia dengan seluruh daftar alternatif, daftar
prioritas, atau satu pilihan terbaik. Onomi pajak 10 tingkat asli Sheridan (Gambar
12.1) berlaku untuk tahap otomatisasi ini. Kami membahas jenis otomatisasi
keputusan seperti itu dalam konteks "tampilan perintah" di Bab 6. Yang penting
adalah ion yang berbeda pada tingkat tertinggi otomatisasi tahap 3 di mana (a)
manusia dapat ditawari satu opsi, tetapi dapat memilih untuk abaikan itu; (b)
manusia tidak dapat mengabaikan pilihan karena akan dipilih (dan dieksekusi)
kecuali manusia memveto itu (dalam batas waktu tertentu); (c) manusia bahkan
tidak dapat memveto.
Contoh otomatisasi tahap 3 dapat ditemukan di banyak domain kerja.
Contoh dari dunia penerbangan adalah sistem peringatan lalu lintas udara, yang
memberikan nasihat resolusi yang memberitahu pilot untuk melakukan satu
manuver tertentu (misalnya, “mendaki mendaki”) untuk menghindari tabrakan
dengan pesawat lain (Pritchett, 2009). Dalam perawatan kesehatan, sistem bantuan
keputusan telah dikembangkan untuk mendukung dokter dalam membuat
keputusan diagnostik tentang pasien atau perawatan (Garg et al., 2005; Morrow et
al., 2006). Contohnya adalah penampilan di layar tampilan sistem catatan pasien
yang terkomputerisasi tentang rekomendasi khusus mengenai pengobatan pasien
dengan HIV (Patterson et al., 2004).
Penting untuk dicatat perbedaan antara otomatisasi tahap 3, yang
menentukan tindakan mana yang harus diikuti oleh operator manusia, dari
otomatisasi tahap 2 yang telah dibahas sebelumnya, yang hanya mendukung
pemrosesan inferensial yang mengarah pada keputusan. Dalam konteks paket
statistik, yang melampaui pemberian nilai ap, dan memberi tahu pengguna apakah
akan "menerima" atau "menolak" hipotesis nol menggunakan otomatisasi tahap 3.
Kontras antara otomatisasi tahap 2 dan tahap 3 secara langsung analog
dengan kontras antara apa yang dijelaskan oleh Mosier dan Fischer (2010) sebagai
pengambilan keputusan front end dan back end. Perbedaannya sangat penting di
sini, seperti di Bab 8, karena pada tahap 2, otomasi tidak perlu memaksakan nilai
apa pun dalam membuat kesimpulan tentang kemungkinan status diagnostik atau
sebagai penilaian dari suatu situasi. Namun pada tahap 3, otomatisasi harus secara
eksplisit atau implisit mengasumsikan nilai untuk hasil keputusan yang berbeda
yang disarankan (atau diamanatkan), dan asumsi tambahan ini memberikan ruang
untuk perbedaan yang lebih besar antara pilihan manusia dan rekomendasi dari
Tingkat (b) dan (c) juga akan mengamanatkan otomatisasi implementasi tindakan
tingkat tertinggi. otomatisasi.

4.4. Implementasi Tindakan Tahap


Akhir implementasi tindakan mengacu pada penyelesaian fisik dari pilihan
tindakan. Otomatisasi Tahap 4 melibatkan eksekusi mesin atas pilihan tindakan,
menggantikan respons motorik manusia (misalnya, gerakan tangan atau anggota
tubuh atau perintah suara).
Tingkat otomatisasi tindakan yang berbeda dapat ditentukan oleh jumlah
relatif aktivitas manual versus otomatis dalam mengeksekusi respons. Misalnya,
dalam mesin fotokopi, penyortiran manual, penyortiran otomatis, dan penjilidan
otomatis mewakili berbagai tingkat otomasi tindakan yang dapat dipilih oleh
pengguna. Contoh yang agak lebih kompleks dari kontrol lalu lintas udara adalah
“handoff” otomatis, di mana transfer kontrol pesawat dari satu wilayah udara sektor
ke sektor lain dilakukan secara otomatis melalui penekanan tombol tunggal, setelah
keputusan dibuat oleh pengontrol (Wickens et al., 1998). Telesurgery robotik, di
mana seorang ahli bedah memandu robot jarak jauh yang melakukan tindakan
bedah pada pasien, memberikan contoh lain dari otomatisasi tahap 4 tingkat tinggi.
Marescaux et al. (2001) melaporkan keberhasilan penggunaan sistem tersebut untuk
memungkinkan seorang ahli bedah di New York untuk melakukan operasi
pengangkatan kandung empedu pada pasien 3.500 mil jauhnya di Perancis.
Implikasi dari model tahapan dan level untuk desain otomasi dibahas
dalam Bagian 9.2 bab ini. Pada bagian berikut kami mempertimbangkan sejumlah
aspek berbeda dari sistem otomatis yang dapat menyebabkan kesulitan dalam
penggunaannya oleh operator manusia.

5. KOMPLEKSITAS OTOMASI
Otomasi, pada dasarnya, menggantikan fungsi yang semula dilakukan oleh
manusia, oleh komponen mekanis atau komputer. Jadi, sementara menghilangkan
kesalahan manusia, yang dibahas di Bab 9, peningkatan jumlah komponen non-
manusia akan meningkatkan kemungkinan kesalahan atau kesalahan sistem.
Selanjutnya, semakin besar tingkat atau kompleksitas fungsi otomasi, semakin
banyak komponen yang dikandungnya dan, dengan menggunakan persamaan
reliabilitas Bab 9, semakin besar kemungkinan bahwa sesuatu, di suatu tempat,
kadang-kadang, akan gagal. Dengan demikian, hampir tidak dapat dihindari bahwa
otomatisasi dalam sistem yang begitu rumit tidak akan sempurna.
Ketidaksempurnaan otomatisasi dapat menyebabkan masalah ketergantungan yang
berlebihan atau kurang pada otomatisasi, seperti yang dibahas lebih lanjut di bagian
selanjutnya dari bab ini.
Asumsi yang sering dibuat adalah bahwa otomatisasi berbasis komputer
dapat meningkatkan keandalan dan keamanan sistem dibandingkan dengan
perangkat analog atau elektro-mekanis karena mode kegagalan perangkat keras dari
teknologi lama ini dikurangi dengan menggunakan perangkat lunak. Namun
perangkat lunak juga tidak lepas dari potensi kegagalan. Meningkatnya
kecanggihan dan kompleksitas perangkat lunak telah menyebabkan lebih banyak
baris kode dalam sistem otomatis. Seringkali, perangkat lunak baru yang
dikembangkan oleh perusahaan memasukkan kode “warisan” yang ditulis oleh
pemrogram yang sudah lama hilang dari perusahaan dan tidak tersedia untuk
memberikan informasi tentang kode lama.
Sebagai contoh ukuran dan kerumitan perangkat lunak, pesawat Boeing
787 "Dreamliner" baru membutuhkan beberapa juta baris kode untuk menjalankan
sistem otomatisnya. Dengan sistem sebesar itu, ada kemungkinan yang signifikan
bahwa “bug” berbahaya yang bersembunyi di dalam perangkat lunak dapat
menyebabkan masalah yang tidak terduga (Landauer, 1995). Leveson (2005) telah
banyak menulis tentang masalah “keamanan perangkat lunak” dan kesulitan
verifikasi perangkat lunak. Dia juga menganalisis peran perangkat lunak dalam
banyak kecelakaan yang melibatkan pesawat terbang, kendaraan luar angkasa, dan
sistem kompleks lainnya. Dalam analisisnya tentang kecelakaan pesawat ruang
angkasa SOHO pada tahun 1996, misalnya, dia menunjukkan bahwa terlalu percaya
diri dan berpuas diri menyebabkan pengujian dan tinjauan yang tidak memadai
terhadap perubahan perintah perangkat lunak yang dikeluarkan di darat ke pesawat
ruang angkasa (Leveson, 2005). Tanggapan organisasi manusia terhadap kegagalan
perangkat lunak dengan demikian mewakili jenis lain dari kecelakaan terkait
otomasi, selain yang dibahas sebelumnya dalam bab ini.
Kompleksitas otomasi membawa serta masalah observasi ke pengguna
manusia. Ketika algoritme kompleks disematkan dalam sistem otomatis, operator
cenderung tidak memahami mengapa otomatisasi melakukan tindakan tertentu
karena algoritme tidak dapat diamati, seperti halnya dengan banyak algoritme yang
terlibat dalam perdagangan komputer yang mengarah ke saham. kehancuran pasar
pada tahun 2008. Dalam beberapa kasus otomatisasi sangat kompleks sehingga
berfungsi sebagai "agen" yang bergantung di mana operator manusia bertindak
terhadap lingkungan (Lewis, 1998). Akibatnya, saling pengertian antara agen
manusia dan mesin bisa hilang (Woods, 1996). Konsekuensinya, sistem berbasis
agen mungkin paling baik disajikan untuk tugas-tugas yang relatif, sederhana, dan
berisiko rendah. Untuk tugas yang lebih kompleks yang melibatkan pengambilan
keputusan kontekstual, bagaimanapun, sistem tersebut harus memberikan umpan
balik kepada operator manusia sehingga niat agen dipahami (Olson & Sarter, 2000).
Kompleksitas otomasi yang meningkat membawa perhatian kedua. Jika
algoritme begitu rumit untuk melakukan hal-hal dengan cara yang berbeda dari cara
manusia biasanya (atau sebelumnya) menyelesaikan tugas yang sama, maka
operator manusia mungkin akan terkejut, dan terkadang curiga terhadap fungsi
otomatis. Contohnya adalah sistem manajemen penerbangan (FMS), kumpulan
autopilot canggih yang memandu pesawat melalui rute penerbangan yang efisien,
menggunakan algoritme dan logika yang jauh lebih canggih daripada yang
digunakan pilot untuk terbang di rute yang sama (Pritchett, 2009; Sarter & Woods,
1995; Sarter, 2008; Sebok et al., 2012). Karena algoritme non-manusia (dan
karenanya tidak intuitif) yang kompleks ini, sistem seperti itu kadang-kadang akan
melakukan hal-hal (secara sah) yang tidak diharapkan pilot, dan karenanya
membuat mereka bertanya "mengapa melakukan ini?", sebuah konsep dalam
penerbangan digambarkan sebagai "kejutan otomatisasi" (Degani, 2004; Sarter,
2008; Sarter et al., 1997). Secara umum, kejutan seperti itu tidak memiliki implikasi
besar kecuali mereka mengarahkan manusia untuk berasumsi bahwa otomatisasi
telah gagal, dan karenanya, mengintervensi, mungkin secara tidak tepat, situasi
yang menyebabkan kecelakaan fatal (Degani, 2004).

6. UMPAN BALIK TERHADAP STATUS DAN PERILAKU


OTOMASI
Jika otomatisasi tidak diperkenalkan dengan hati-hati, otomatisasi dapat
memiliki karakteristik yang disebut Sarter dan Woods (1996) sebagai "bukan
pemain tim". Sebagian besar kekurangan ini mungkin diakibatkan oleh tidak
adanya umpan balik yang efektif kepada monitor manusia tentang fungsi otomasi,
mengenai apa yang dilakukannya dan mengapa (Norman, 1990). Masalah ini telah
lama menjadi perhatian pilot karena mereka mengawasi FMS mereka yang kuat,
tetapi kompleks dan seringkali tidak komunikatif (Wiener, 1988; Sarter & Woods;
1995; Sarter, 2008). Kekurangan dalam umpan balik otomasi dapat dari beberapa
jenis: dapat benar-benar tidak ada, Sarter dan Woods (1995) menyatakan sebagai
otomasi yang "diam;" itu bisa buruk, dalam arti tidak cukup menonjol untuk
menarik perhatian operator pada perubahan keadaan; bisa jadi ambigu, sehingga
operator bingung; dan terakhir, bisa jadi tidak fleksibel, kurang detail, dan tidak
memberikan informasi yang spesifik untuk situasi tersebut.
Ketika otomatisasi tidak memberikan umpan balik tentang statusnya,
operator manusia dapat dibiarkan dalam kegelapan. Seperti disebutkan dalam Bab
2, manusia mengalami kesulitan dalam mendeteksi perubahan halus di lingkungan
karena keterbatasan kemampuan deteksi sinyal dan kewaspadaan. Meskipun umpan
balik disajikan, bagaimanapun, arti pentingnya mungkin sangat rendah sehingga
operator tidak menyadarinya, terutama jika perhatian mereka terfokus di tempat lain
pada tugas mereka yang lain. Seperti disebutkan dalam Bab 3, bahkan perubahan
lingkungan yang tampaknya memaksa (misalnya, seorang pria dengan setelan
gorila berjalan melalui sekelompok orang yang memainkan permainan mengoper
bola; Simons & Chabris, 1999) dapat terlewatkan jika perhatian diarahkan di tempat
lain—fenomena perubahan kebutaan. Di dek penerbangan, pemberi sinyal status
mode penerbangan tampaknya tidak diperhatikan jika tidak terduga (Sarter,
Mumaw, & Wickens, 2007). Dalam kecelakaan kapal Royal Majesty yang telah
dibahas sebelumnya di bab ini, kegagalan sinyal GPS ke sistem radar otomatis telah
disinyalkan, tetapi itu kecil (perubahan dalam satu karakter layar kristal cair kecil)
yang sebenarnya terjadi. tidak terlihat.
Bahkan ketika umpan balik yang menonjol diberikan, kekurangan
komunikasi tambahan dapat diakibatkan oleh ketidakfleksibelan yang melekat
dalam dialog dengan sebagian besar sistem otomatis. Bagaimanapun, sistem seperti
itu harus diprogram sebelumnya dengan seperangkat aturan tetap yang membatasi
"fleksibilitas percakapan" mereka. Menu telepon yang semakin umum adalah
contoh sempurna dari ketidakfleksibelan tersebut, di mana pertanyaan sederhana
yang mungkin diajukan seseorang, yang tidak memenuhi rangkaian kategori menu
yang telah ditentukan sebelumnya, tidak dapat dengan mudah ditangani. Seringkali
seseorang harus menunggu sampai opsi terakhir: "jika Anda perlu berbicara dengan
operator, tekan delapan." Juga, seperti yang kami catat di Bab 6, ada sejumlah fitur
non-linguistik dari komunikasi manusia-manusia yang tidak dapat dengan mudah
ditangkap oleh komunikasi yang dimediasi komputer (yaitu, otomatis). Kami
memeriksa masalah komunikasi antara sistem otomatis dan pengguna manusia
secara lebih rinci nanti di bab ini saat kami membahas konsep "etiket komputer
manusia"
7. KEPERCAYAAN DAN KETERGANTUNGAN PADA OTOMASI
Mungkin tidak ada variabel yang lebih penting dalam interaksi manusia-
otomatisasi daripada kepercayaan. Studi klasik oleh Bainbridge (1983), Muir
(1988), Wiener dan Curry (1980), dan oleh Lee dan Moray (1992) memperkenalkan
konsep tersebut, dan makalah awal oleh Parasuraman et al. (1993) dan Sorkin
(1989) memperkenalkan konsep puas diri (over-trust) dan "cry wolf effect" (di
bawah kepercayaan), masing-masing, konsep yang akan dijelaskan secara
mendalam di bawah ini. Kemudian muncul banyak literatur tentang kepercayaan
dan hubungannya dengan penggunaan otomasi dan kinerja sistem manusia. Lee dan
See (2004) memberikan gambaran tentang pekerjaan ini dan model proses
kepercayaan dalam otomatisasi. Madhavan dan Wiegmann (2007) memperluas
tinjauan ini dan juga membandingkan kepercayaan manusia dan otomasi manusia,
mengamati bahwa keduanya memiliki fitur yang sama tetapi juga dapat dibedakan.
Hancock dkk. (2011) melaporkan meta-analisis studi kepercayaan dalam konteks
spesifik interaksi manusia-robot.
Pada awalnya, penting untuk membedakan antara kepercayaan otomatisasi
dan ketergantungan otomatisasi. Yang pertama adalah keadaan kognitif/afektif
pengguna yang biasanya dinilai dengan penilaian subjektif (misalnya, Jian et al.,
2000; Singh et al., 1993); yang terakhir adalah perilaku objektif yang dapat diukur
dari interaksi pengguna dengan otomatisasi (misalnya, Lee & Moray, 1992).
Misalnya dapat diukur dengan sejauh mana pengguna "mengaktifkan otomatisasi",
mengikuti sarannya, atau memeriksa ulang rekomendasi otomatisasi terhadap data
mentah (Bahner et al., 2008).
Kepercayaan dan ketergantungan otomatisasi biasanya berkorelasi: jika
kita mempercayai agen, apakah mesin atau manusia, kita akan cenderung
bergantung pada agen tersebut. Misalnya, “Saya memercayai putri remaja saya
untuk tidak mengirim SMS saat mengemudi karena saya telah berkali-kali
menceramahinya bahwa itu adalah praktik yang tidak aman;” atau “Saya
memercayai anjungan tunai mandiri saya untuk memberi saya jumlah uang tunai
yang benar dalam suatu transaksi tanpa saya harus menghitung uangnya, karena
saya tidak pernah kekurangan uang.” Korelasi antara kepercayaan dan
ketergantungan ini seringkali jauh lebih kecil dari 1,0. Kita mungkin terpaksa
bergantung pada otomatisasi saat beban kerja kita tinggi, tetapi mungkin tidak
selalu sepenuhnya mempercayainya; terkadang kita mungkin "melihat dari balik
bahunya". Kami juga dapat sepenuhnya mempercayai otomatisasi, tetapi mungkin
tidak bergantung sama sekali, jika kami lebih suka melakukan tugas secara manual
karena kegembiraan dan tantangan yang terakhir.
Beberapa variabel diketahui memengaruhi kepercayaan dan
ketergantungan dengan cara yang sama. Misalnya, semakin kompleks algoritma
proses otomasi, semakin rendah kepercayaannya (Lee & See, 2004). Tentu saja ini
adalah sumber utama ketidakpercayaan pilot terhadap FMS yang sangat kompleks
yang dijelaskan di Bagian 5 di atas. Terkait erat adalah hilangnya kepercayaan yang
disebabkan oleh kurangnya transparansi atau umpan balik dari apa yang dilakukan
otomatisasi yang dijelaskan dalam 6 di atas. Apa yang terjadi di dalam “kotak
hitam”? Madhavan et al. (2006) menemukan bahwa jenis kesalahan yang dilakukan
oleh otomatisasi juga mempengaruhi kepercayaan. Kesalahan otomatisasi yang
benar-benar "buruk" menurunkan kepercayaan lebih dari kesalahan yang masuk
akal (seperti kesalahan yang dibuat oleh pengguna manusia). Ada juga perbedaan
individu dalam kepercayaan/ ketergantungan (Krueger et al., 2012; Merritt & Ilgen,
2008).
Dari semua variabel yang memengaruhi kepercayaan/ketergantungan,
mungkin yang paling kritis adalah keandalan otomasi. Sistem otomatis yang
sempurna (100 persen) andal jarang terjadi kecuali jika sistem tersebut sangat
sederhana. Ini berarti bahwa operator manusia terkadang memilih untuk tidak
mempercayai keluaran dari sistem otomatis. Tentu saja, untuk sistem yang
kompleks beroperasi di tempat yang tidak pasti dunia, kinerja sempurna hampir
tidak mungkin, apakah tugas dijalankan oleh otomatisasi atau oleh ahli manusia,
karena ketidakpastian yang melekat dalam informasi yang harus diproses oleh
otomatisasi, dalam domain seperti prakiraan cuaca, ekonomi, perkembangan
penyakit, atau prediksi perilaku individu manusia (seperti dalam terorisme atau
kesehatan mental). Meskipun tidak sempurna, otomatisasi dapat memberikan
bantuan yang berguna bagi manusia di bidang tersebut (Wickens & Dixon, 2007).
Sebagai penyebab lain yang menurunkan keandalan, kami telah mengidentifikasi
peran bug perangkat lunak di atas dalam menyebabkan ketidaksempurnaan
otomasi; dan kita dapat mempertimbangkan peran kegagalan daya (kalkulator
menyerah di tengah ujian, memaksa ketergantungan pada pembagian panjang
mental), dan "penyiapan" atau pemrograman otomatisasi manusia yang tidak tepat
(Wiener & Curry, 1980). Dua yang terakhir mungkin tidak dianggap sebagai
kegagalan otomatisasi itu sendiri, tetapi mereka dapat memiliki konsekuensi yang
sama untuk kepercayaan dan ketergantungan.
Apa pun sumber ketidakandalannya, konsep kritis dalam hubungan antara
kepercayaan/ ketergantungan otomasi dan keandalan adalah kurva kalibrasi,
ditunjukkan pada Gambar 12.3. Di sini keandalan diskalakan pada sumbu X (dan
seringkali dapat dinyatakan secara numerik pada skala 0–1,0, dengan membagi
jumlah kesalahan otomatisasi dengan peluang kesalahan). Entah kepercayaan atau
ketergantungan direpresentasikan pada sumbu Y, kepercayaan dengan skala
peringkat subyektif minimum maksimum, sedangkan untuk ketergantungan,
sejumlah tindakan obyektif dapat mengukur proporsi waktu otomatisasi digunakan
(misalnya, proporsi waktu keputusan manusia setuju dengan rekomendasi
otomatis). Garis diagonal mewakili garis kalibrasi sempurna. Yang penting, kurva
tersebut membagi ruang menjadi dua wilayah, diuraikan pada bagian di bawah ini:
kepercayaan berlebihan ke kiri atas, dan kepercayaan berlebihan ke kanan bawah.
Sering terjadi bahwa kedua bagian ini terkait dalam waktu melalui dinamika
kepercayaan. (Lee & Moray, 1992; Yeh, Merlo, et al., 2003). Dalam skenario
tipikal, operator bekerja dengan sistem otomasi dengan keandalan tinggi. Ini dapat
beroperasi untuk banyak "percobaan" (atau waktu yang lama) tanpa kegagalan, dan
selama waktu ini operator membangun kepercayaan dan ketergantungan padanya,
seringkali sampai berpuas diri jauh ke kiri atas Gambar 12.3. Kemudian gagal,
dalam apa yang kami gambarkan sebagai kegagalan pertama, sebuah peristiwa yang
memiliki arti khusus dalam studi interaksi otomasi manusia (Rovira et al., 2007).
Respons manusia (atau non-respons) terhadap kegagalan pertama ini seringkali
dramatis (Yeh, Merlo, et al., 2003) dan merupakan sumber dari banyak kecelakaan
berbasis otomasi, seperti grounding Royal Majesty yang dijelaskan di atas (lihat
juga Dornheim , 2000, untuk contoh pengalaman kegagalan pertama dalam
otomatisasi pesawat).

GAMBAR 12.3. Hubungan Antara Kepercayaan Subjektif dan Keandalan


Otomasi.

Setelah kegagalan pertama, operator biasanya akan melompat melintasi


kurva kalibrasi Gambar 12.3 ke kanan bawah, menunjukkan ketidakpercayaan yang
sangat besar (“terbakar sekali, tidak pernah lagi” atau “Menipu saya sekali, malu
pada saya. Menipu saya dua kali , tidak tahu malu"). Kemudian, seiring waktu,
kepercayaan dan ketergantungan secara bertahap akan pulih menuju garis kalibrasi
pada tingkat yang mendekati keandalan jangka panjang (Yeh, Merlo, et al., 2003).
Dalam diskusi berikut, kami menyajikan kedua wilayah ini dalam urutan tipikalnya,
dari kepercayaan berlebihan hingga kegagalan pertama hingga kepercayaan yang
kurang.

7.1. Terlalu Percaya


7.1.1. Kelemahan
Sistem otomatis yang sangat andal tetapi tidak sempurna sehingga dapat
mengundang kecenderungan untuk tidak memantau otomatisasi atau sumber
informasi yang digunakan sistem otomatis. Istilah kepuasan telah lama digunakan
dalam penerbangan (Wiener, 1981) dan domain lainnya (Casey, 1988). Seperti
dalam kasus kapal pesiar Royal Majesty yang dijelaskan sebelumnya, rasa puas diri
telah terlibat sebagai faktor penyebab banyak kecelakaan.
Sementara kepuasan otomatisasi akan menyediakan sumber daya yang
cukup untuk tugas bersamaan sebelum kegagalan pertama, hal itu dapat memiliki
setidaknya dua konsekuensi perilaku atas kegagalannya. Di satu sisi, kegagalan
otomatisasi yang jarang dan karena itu tidak terduga, ketika terjadi, sulit untuk
dideteksi, seperti yang kita pelajari di Bab 2 (harapan dan deteksi sinyal), Bab 3
(harapan dan pemindaian visual), dan di Bab 9 (harapan dan waktu reaksi). Di sisi
lain, seorang operator yang mengharapkan otomatisasi melakukan tugasnya akan
cenderung tidak memantau pekerjaan yang dilakukannya — kehilangan kesadaran
akan keadaan yang berkembang, atau sekitarnya, sistem otomatis (Endsley & Kiris,
1995; Kaber et al., 1999; lihat kesadaran situasi: Bab 7). Oleh karena itu, jika
kegagalan memang terjadi, monitor akan kurang mampu menanganinya dengan
tepat. Contohnya adalah seorang pilot yang harus melompat ke loop kontrol untuk
menerbangkan pesawat secara manual, seandainya autopilot tiba-tiba gagal. Selain
itu, penelitian mengungkapkan bahwa lebih mudah untuk mengingat suatu tindakan
jika Anda memilihnya sendiri daripada jika Anda telah menyaksikan agen lain
(orang lain, atau otomatisasi) memilih tindakan itu — efek pembangkitan (Farrell
& Lewandowsky, 2000; Slamecka & Graf, 1978). Dengan demikian, otomatisasi
membuat operator kurang menyadari tindakan yang dipilih dalam sistem. Misalnya,
mode otomatisasi apa yang saat ini berlaku (Sarter & Woods, 1997)? Tentu saja
kepuasan tidak mengungkapkan masalah sampai otomatisasi gagal dan kegagalan
tersebut, meskipun sering tidak mungkin, tidak pernah mustahil.
Bukti eksperimental untuk kepuasan otomatisasi diberikan oleh
Parasuraman et al. (1993), yang meminta peserta melakukan tiga tugas bersamaan
dari Multiple Task Battery (MATB), salah satunya (tugas pemantauan mesin)
didukung oleh sistem otomatis yang tidak sepenuhnya dapat diandalkan. Kepuasan
secara operasional didefinisikan sebagai operator yang tidak mendeteksi atau
lamban dalam menyadari kegagalan otomatisasi tahap 1 untuk mendeteksi
malfungsi mesin. Dalam kondisi kontrol, peserta harus melakukan hanya tugas
pemantauan mesin dengan dukungan otomatisasi, tanpa tugas manual lainnya,
sehingga keseluruhan beban tugas mereka jauh lebih rendah.
Deteksi kegagalan otomasi secara signifikan lebih buruk dalam kondisi multitugas
karena sumber daya dibagi di antara tugas (lihat Bab 10) daripada dalam kondisi
tugas tunggal. Ketika peserta hanya perlu "mencadangkan" rutinitas otomasi tanpa
tugas lain, pemantauan menjadi efisien dan hampir sempurna dalam akurasi.
Dengan demikian, kepuasan otomatisasi mewakili alokasi perhatian aktif dari
otomatisasi ke tugas manual lainnya dalam kasus beban kerja yang tinggi (Manzey
& Parasuraman, 2010). Seperti dibahas dalam Bab 2, operator cenderung tidak
mendeteksi sinyal ketika sering muncul, temuan yang konsisten dengan teori
kewaspadaan harapan (Parasuraman, 1987).
Dengan demikian, kepuasan otomatisasi harus lebih parah ketika kegagalan
otomatisasi jarang terjadi, terjadi untuk pertama kali dalam pengalaman operator
(kegagalan pertama), dan/atau terjadi setelah jangka waktu yang lama dari kinerja
bebas kesalahan. Memang, salah satu ironi otomatisasi adalah semakin andal,
semakin dipercaya, dan semakin puas operatornya (Bainbridge, 1983). Molloy dan
Parasuraman (1996) menegaskan hal ini dalam sebuah penelitian di mana
otomatisasi gagal hanya pada satu acara, baik awal atau akhir, dalam dua sesi
terpisah. Hanya sekitar separuh peserta yang terdeteksi kegagalan otomatisasi awal,
dan bahkan lebih sedikit yang mendeteksi kegagalan akhir (lihat juga replikasi oleh
Bailey dan Scerbo (2007) dan oleh Manzey et al. (2012)). Dalam studi terkait, De
Waard dan col liga (1999) memiliki peserta dalam simulator mengemudikan
kendaraan di mana kemudi dan kontrol lateral otomatis tetapi dapat
dikesampingkan dengan menekan rem. Pada satu kesempatan kendaraan digabung
tiba-tiba ke jalur yang sama seperti di depan kendaraan peserta tetapi otomatisasi
gagal mendeteksi penyusupan. Separuh pengemudi tidak mendeteksi kerusakan,
menekan rem, dan merebut kembali kendali manual, sementara 14 persen
merespons tetapi tidak cukup cepat untuk menghindari tabrakan.
Kepuasan dalam otomatisasi tahap 1 (peringatan dan alarm) dapat tercermin
dalam dua perbedaan bentuk ketergantungan otomatisasi: ketergantungan dan
kepatuhan (Meyer, 2001, 2004, 2012). Kapan operator berhenti memantau data
mentah selama periode yang lama sementara peringatannya "senyap" (atau tidak
diaktifkan), mereka dapat mengalihkan perhatian mereka ke tempat lain untuk
mendukung tugas bersamaan. Bentuk dari ketergantungan digambarkan sebagai
ketergantungan yang tinggi pada otomatisasi (Dixon & Wickens, 2006; Meyer,
2001). Saat operator bereaksi dengan cepat saat peringatan “berbunyi” (atau
diaktifkan), ini mencerminkan kepatuhan. Sementara perubahan ketergantungan
tidak mengharuskan perubahan kepatuhan (atau sebaliknya), kedua keadaan
tersebut sering digabungkan secara timbal balik melalui ambang peringatan yang
dibahas di Bab 2. Itu adalah, penurunan ambang peringatan (beta dalam istilah SDT,
lihat Bab 2) biasanya akan menyebabkan kepatuhan menurun, karena
ketergantungan akan meningkat (Dixon & Wickens, 2006; Maltz & Shinar, 2003).
Kepuasan otomatisasi juga telah ditemukan dalam studi dengan pekerja
terampil yang mengawasi otomatisasi yang sangat mirip dengan sistem nyata.
Galster dan Parasuraman (2001), misalnya, menemukan bahwa pilot penerbangan
umum yang berpengalaman mendeteksi lebih sedikit kerusakan mesin saat
menggunakan sistem otomasi kokpit yang sebenarnya, Engine Indicator and Crew
Alerting System (EICAS), daripada saat melakukan semua tugas simulasi
penerbangan secara manual. Yeh et al. (2003) menunjukkan efek kegagalan
pertama yang kuat dengan personel tentara menggunakan otomatisasi panduan-
perhatian seperti yang dibahas di Bab 3. Metzger dan Parasuraman (2005) menguji
kontroler berpengalaman dengan fidelitas tinggi simulator kontrol lalu lintas udara
dengan otomatisasi "penyelidikan konflik" yang menunjukkan potensi konflik.
Oleh karena itu, bukti menunjukkan bahwa kepuasan otomatisasi biasanya
ditemukan di bawah kondisi beban tugas ganda, ketika tugas manual (non-otomatis)
bersaing dengan tugas otomatis untuk menarik perhatian operator. Temuan ini juga
konsisten dengan meta-analisis studi keandalan otomasi tahap 1 oleh Wickens dan
Dixon (2007). Mereka menemukan otomatisasi ketergantungan, mencerminkan
kepuasan, lebih berkorelasi dengan keandalan otomatisasi dalam tugas ganda
kondisi, ketika sumber daya kognitif langka, daripada dalam kondisi tugas tunggal.
Di bawah seperti itu kondisi multi-tasking, kebijakan alokasi perhatian operator
tampaknya menguntungkannya tugas manual, bukan tugas otomatis. Strategi ini
sendiri mungkin berasal dari awal antara dua pesawat beberapa menit sebelum
terjadinya. Secara signifikan lebih sedikit pengontrol yang mendeteksi konflik
ketika penyelidikan konflik gagal daripada ketika konflik yang sama ditangani
secara manual dalam sesi terpisah. Analisis gerakan mata juga menunjukkan bahwa
pengendali yang melewatkan konflik membuat fiksasi tampilan radar secara
signifikan lebih sedikit di bawah dukungan otomatisasi daripada di bawah kontrol
manual, menunjuk ke hubungan antara efek kepuasan otomatisasi dan pengurangan
perhatian visual ke sumber informasi data mentah yang memberi makan otomatisasi
(lihat juga Bagheri & Jamieson, 2004; Manzey et al., 2012; Wickens, Dixon, Goh,
& Hammer, 2005) orientasi kepercayaan pada otomatisasi, yang kemudian
diperkuat saat otomatisasi berjalan tanpa kegagalan (Parasuraman & Manzey,
2010).
Moray (2003; Moray & Inagaki, 2000) menunjukkan bahwa kebijakan
alokasi perhatian terutama untuk tugas-tugas non-otomatis dan hanya kadang-
kadang untuk tugas otomatis dapat dianggap rasional (lihat juga Moray, 1984;
Sheridan, 2002) . Moray juga menyarankan kepuasan itu hanya dapat disimpulkan
jika tingkat pengambilan sampel tugas otomatis oleh operator benar-benar di bawah
bahwa dari pengamat yang optimal atau normatif. Lagi pula, jika sesuatu tidak
pernah gagal (menurut pengalaman Anda), kenapa harus di lihat? Alasannya tentu
saja karena bisa gagal. Dalam hal SEEV model pemindaian (Bab 3), nilai
otomatisasi pemantauan sangat tinggi, bahkan jika harapan cukup rendah. Tetapi
orang sering menggunakan pengalaman aktuaria mereka sendiri untuk memandu
harapan mereka (Hertwig & Erev, 2009; lihat Bab 8).
Untuk mendukung, Bahner et al. (2008) melakukan penelitian untuk
menguji pengambilan sampel data mentah yang diproses oleh otomatisasi di mana
mereka membandingkan seberapa sering peserta melihat optimal jumlah sumber
informasi yang diperlukan untuk memverifikasi diagnosis otomasi. Mereka
memiliki peserta melakukan tugas kontrol proses simulasi yang membutuhkan
kontrol pengawasan sub-sistem kehidupan sistem pendukung untuk stasiun ruang
angkasa. Sistem manajemen kesalahan otomatis memberikan diagnosis yang
direkomendasikan terkait kesalahan sistem. Sejauh mana peserta menerima
diagnosis otomasi tanpa memverifikasi itu memberikan ukuran kepuasan. Peserta
bisa akses (melalui klik mouse) semua informasi sistem yang relevan (misalnya,
laju aliran tangki) yang diperlukan untuk memverifikasi diagnosa. Bahner dan
rekannya beralasan, mengikuti Moray (2003), bahwa peserta yang mengakses
jumlah parameter informasi yang benar perlu memverifikasi diagnosis sebelum
menerimanya adalah optimal sedangkan orang yang mengambil sampel informasi
kurang dari yang diperlukan untuk sepenuhnya memverifikasi rekomendasi
bantuan dapat diklasifikasikan sebagai puas. Semua peserta mengambil sampel
lebih sedikit dari jumlah optimal sumber informasi dan beberapa menunjukkan
deteksi yang buruk kegagalan pertama. Jadi kepuasan adalah temuan umum.
Manzey, Reichenbach, dan Onasch (2012) menemukan bahwa sampler yang lebih
optimal cenderung melewatkan kegagalan pertama sama sekali dan Bahner et al.
(2008) juga menemukan bahwa para peserta yang telah dilatih secara khusus
dengan contoh-contoh kegagalan otomatisasi memiliki tingkat pengambilan sampel
yang lebih tinggi dan intervensi lebih tepat ketika otomatisasi gagal. Hasilnya
memberikan bukti kuat adanya kepuasan otomatisasi, tetapi juga menunjukkan satu
metode (pelatihan) yang dapat digunakan untuk mengurangi kejadiannya: pra-
paparan untuk kegagalan otomatisasi.

7.1.2. Bias Automasi


Apa yang disebut oleh Mosier dan Fischer (2010) sebagai bias otomasi
mewakili konsekuensi kinerja manusia lain dari kepercayaan yang berlebihan.
Berhubungan erat dengan kepuasan, bias otomatisasi biasanya dikaitkan dengan
alat bantu keputusan otomatis yang dimaksudkan untuk mendukung pengambilan
keputusan manusia dalam lingkungan yang kompleks (Mosier & Fischer, 2010;
Mosier et al., 1998). Jika pengguna sistem tersebut memiliki kepercayaan yang kuat
dalam otomatisasi tersebut, mereka dapat menganggapnya sebagai kekuatan dan
otoritas yang lebih besar daripada sumber informasi dan saran lainnya. Mosier dan
Skitka (1996, p. 205) mendefinisikan bias otomasi sebagai "pengganti heuristik
untuk pencarian dan pemrosesan informasi yang waspada." Dalam pandangan ini,
individu mungkin tidak melakukan analisis menyeluruh dari semua informasi yang
tersedia tetapi cukup ikuti saran otomatisasi, meskipun sarannya adalah tidak benar,
sehingga melakukan kesalahan komisi (Bahner et al., 2008). Contohnya adalah pilot
mengikuti saran dari sistem otomatis perencanaan penerbangan meskipun
rekomendasinya adalah salah (misalnya, Layton et al., 1994).
Dalam percobaan simulasi penerbangan awal, Mosier et al. (1992)
menemukan bahwa 75 persen dari banyak pi salah mematikan mesin, ketika
otomatisasi juga salah merekomendasikan seperti itu shutdown (otomatisasi tahap
3) berdasarkan diagnosis yang salah dari kebakaran mesin di mesin yang salah.
Sebaliknya, hanya 25 persen pilot yang menggunakan daftar periksa kertas
tradisional yang melakukannya kesalahan komisi yang sama. Studi selanjutnya
mengungkapkan bahwa pilot komersial juga cenderung mengikuti saran
otomatisasi yang salah. Kegagalan untuk memeriksa "data mentah" adalah apa yang
sebelumnya digambarkan sebagai kepuasan otomatisasi, yang mencerminkan
alokasi perhatian operator. ke tugas non-otomatis lainnya di lingkungan multi-
tasking yang sibuk.
Bias otomasi juga dapat menciptakan terowongan perhatian, yang dibahas
di Bab 10. Jadi Wickens dan Alexander (2009), meringkas beberapa studi simulator
penerbangan dengan pilot terampil, mengamati bahwa 52 persen pilot mengikuti
arah otomatisasi tahap 3 jalan raya di langit (HITS) display yang langsung
menggiring mereka ke rintangan atau jalur berbahaya, bahkan hazard sekalipun
terlihat jika pilot berkonsultasi dengan data mentah, terlihat melalui kaca depan di
luar pesawat.
Pastinya, setidaknya beberapa aspek bias otomasi disebabkan oleh
keterbatasan perhatian yang sama yang juga menyebabkan rasa puas diri
(Parasuraman & Manzey, 2010). Namun, aspek lainnya bias otomasi dapat
mencerminkan faktor keputusan daripada perhatian (Goddard et al., 2012; Mosier
& Fischer, 2010). Dalam pandangan ini, bias otomasi, seperti heuristik dan bias
keputusan lainnya, mencerminkan kecenderungan manusia untuk memilih jalan
yang paling sedikit upaya kognitifnya dalam pengambilan keputusan, yang disebut
hipotesis "pelit kognitif" (lihat Bab 8 tentang pengambilan keputusan). Bias
otomatisasi juga dapat terjadi karena pengguna melebih-lebihkan kemampuan alat
bantu otomatis. Lebih spesifik mereka mungkin menganggap kinerja dan otoritas
bantuan lebih besar daripada manusia lain atau diri mereka sendiri (Dzindolet et al.,
2002).
Goddard et al. (2012) mengulas studi bias otomasi dalam pengaturan
perawatan kesehatan, berfokus pada penggunaan sistem pendukung keputusan.
Mereka menemukan bahwa bias otomasi relatif lazim di banyak jenis situasi
pengambilan keputusan diagnostik medis, khususnya deteksi gambar radiologi
dengan bantuan komputer seperti mammogram dan dalam interpretasi
elektrokardiogram berbasis komputer. Dalam setiap kasus, peserta telah
mengurangi diagnostik akurasi ketika diberikan saran yang salah oleh otomatisasi,
dibandingkan dengan kinerja tanpa otomatisasi.

7.1.3. OVERDEPENDENSI: DESKILLING DAN “OOTLUF”


Selain kepuasan dan efek generasi (kehilangan SA), konsekuensi negatif
ketiga dari otomatisasi tingkat tinggi adalah kemampuan operator untuk melakukan
otomatisasi secara manual dapat menurun dari waktu ke waktu, sebuah fenomena
terkadang disebut “deskilling” (Ferris, Sarter, & Wickens, 2010; Geiselman,
Johnson, & Buck, 2012; Lee & Moray, 1994). Ada bukti hilangnya keterampilan
seperti itu di antara pilot pesawat yang sangat otomatis, yang dimitigasi oleh pilot
yang memilih untuk "menerbangkan tangan" pesawat dari waktu ke waktu.
(Wiener, 1988). Secara kolektif, tiga fenomena deteksi terdegradasi melalui
kepuasan, kesadaran/diagnosis, dan kehilangan keterampilan manual dapat disebut
sebagai sindrom “out of the loop ketidaktahuan” atau “OOTLUF”
Insiden dan kecelakaan terkait otomasi telah dijelaskan sebelumnya dalam
bab ini. Namun, sejumlah kecelakaan penerbangan baru-baru ini secara khusus
menunjukkan masalah deskkilling sebagai akibat langsung dari otomatisasi.
Kecelakaan yang sangat dipublikasikan adalah kecelakaan Colgan Air di dekatnya
Buffalo, NY pada tahun 2009. Co-pilot telah memasukkan informasi yang salah ke
FMS, menyebabkannya lambat ke kecepatan yang tidak aman yang memicu
peringatan kios ("pengocok tongkat"). Kehilangan kecepatan pesawat ternyata tidak
diperhatikan oleh awak pesawat, namun saat peringatan stall berbunyi, kapten
merespon dengan berulang kali menarik kuk kontrol, yang selanjutnya
menyebabkan pesawat terhenti. dan kecelakaan, mengakibatkan kematian 49 orang
di dalamnya. Investigasi kecelakaan menunjukkan hal itu kecelakaan itu bisa
dihindari jika kapten mendorong kuk ke depan daripada ke belakang. Kecelakaan
serupa adalah kecelakaan Air France di Atlantik pada tahun 2009, juga melibatkan
ketinggian tinggi kios di mana pilot membuat input kuk "hidung ke atas" padahal
seharusnya dilakukan sebaliknya untuk mempertahankan angkat. Dalam
kecelakaan ini dan yang terkait, hilangnya keterampilan pilot dalam menangani kios
karena penggunaan sistem autoflight secara ekstensif dianggap sebagai faktor
penyebab utama.
Dalam banyak sistem otomatis, kekhawatiran OOTLUF diadu dengan
otomatisasi yang sangat nyata keuntungan dari berkurangnya beban kerja. Bagi
pengemudi kendaraan yang sibuk, bernavigasi di jalan bebas hambatan yang asing
lingkungan, kemungkinan akan lebih disukai dan manfaat nyata untuk keselamatan,
untuk membongkar beberapa aspek dari kontrol mengemudi loop dalam (menjaga
jalur dan pemantauan headway) ke cerdas dan autopilot yang andal, agar informasi
navigasi dapat dikonsultasikan dan keputusan dapat diambil
dibuat tanpa pengalihan sumber daya. Tetapi implikasi dari pertukaran ini harus
dipertimbangkan hati-hati, agar sindrom OOTLUF tidak terjadi. Di Bagian 9.2,
kami membahas apakah ada bukti bahwa mungkin ada tingkat optimal otomatisasi
pada tradeoff yang tidak menghasilkan OOTLUF, namun tetap memberikan
otomatisasi pada tingkat yang cukup tinggi sehingga beban kerja menjadi lebih
ringan (Wickens, 2008)

7.2. Ketidakpercayaan dan Kepercayaan


Seperti disebutkan di awal Bagian 7, kegagalan pertama sering membuat
operator keluar dari keadaan terlalu percaya dengan kurang percaya atau tidak
percaya, sama seperti faktor lain juga, seperti kompleksitas dan umpan balik yang
buruk dapat menyebabkan ketidakpercayaan. Akibatnya, otomatisasi tersebut dapat
ditinggalkan (Parasuraman & Riley, 1997), meskipun akurat (lagipula, 10 persen
otomatisasi yang tidak dapat diandalkan akan tetap akurat 90 persen dari waktu).
Tidak ada fenomena yang diilustrasikan dengan lebih baik daripada di masalah
"alarm palsu" dalam otomatisasi tahap 1 dan 2, di mana alarm (suatu bentuk saran
otomatis) akan berbunyi, bahkan jika tidak ada kondisi kegagalan yang sebenarnya
(Dixon et al., 2007; Parasuraman et al., 1997; Sorkin, 1989). Keadaan seperti itu
mengundang ketidakpercayaan operator sistem alarm—yakni, “dikurangi
kalibrasi” untuk nilai sebenarnya yang dapat ditawarkan oleh alarm.
Entah karena benar-benar tidak dapat diandalkan, atau karena kerumitan
(menyebabkan anggapan tidak dapat diandalkan), otomatisasi tidak digunakan
dapat memiliki konsekuensi yang mungkin relatif kecil — terkadang kita kurang
efisien ketika kita mematikan otomatisasi daripada dengan bantuannya. Misal
seperti Wickens dan Dixon (2007) menemukan bahwa orang lebih baik tergantung
pada sistem diagnostik otomatis dengan tingkat kesalahan setinggi 20 persen,
daripada mengandalkan diagnostik manual mereka keterampilan sendiri.
Sebaliknya, insiden bencana kadang-kadang dapat terjadi karena alarm yang benar
(valid). diabaikan atau jika kondisi kritis tidak pernah diumumkan sejak awal
karena "mengganggu" sistem alarm yang tidak dapat diandalkan telah dimatikan
sebelumnya. Sorkin (1989) melaporkan banyak kasus insinyur kereta merekam
speaker dari mana peringatan pendengaran terpancar di dalam kabin karena mereka
biasanya salah. Seagull dan Sanderson (2001) melaporkan bahwa 42 persen alarm
terdengar oleh perawat anestesiologi diabaikan (tidak ada tindakan yang diambil),
dan Wickens, Rice, et al. (2009) ditemukan bahwa 45 persen dari peringatan konflik
yang diterima oleh pengawas lalu lintas udara tidak memerlukan tindakan (juga
tidak satu diambil). Dalam domain prakiraan cuaca. Barnes dkk. (2007) melaporkan
bahwa 76 persen dari peringatan tornado yang dikeluarkan salah
Terkadang respons "serigala menangis" dapat menimbulkan konsekuensi
yang tragis. Dalam satu laporan disimpulkan bahwa 21 persen kematian atau cedera
terkait dengan insiden ventilator pasien jangka panjang dihasilkan dari
keterlambatan atau tidak ada tanggapan terhadap alarm ventilator (Joint
Commission, 2002). 2001 jatuhnya penerbangan Korean Airlines di Guam yang
menewaskan lebih dari 100 orang merupakan hal yang khusus konsekuensi tragis
dari sindrom "serigala menangis". Pengendali lalu lintas udara memantau
penerbangan telah menonaktifkan sistem penghindaran tabrakan medan karena
telah mengeluarkan terlalu banyak peringatan palsu dan akibatnya tidak menyadari
bahwa pesawat sedang turun ke gunung di dekat landasan pacu
Tentu saja ada banyak alasan untuk tidak menanggapi false alert atau
peringatan palsu, tidak terkait dengan hilangnya kepercayaan (Lees dan Lee, 2007;
Wickens, Rice, et al., 2009; Xiao et al., 2004), terutama jika operator juga memiliki
beberapa akses dan memiliki kesadaran akan data mentah atau informasi yang
mengarah ke peringatan. Seperti yang telah dibahas dalam Bab 2, ambang respon
(atau kriteria) dari sistem peringatan sering diatur pada tingkat rendah untuk
mencegah meleset, tetapi pada biaya alarm palsu. Tetapi jika alarm palsu tetap
memperingatkan operator tentang situasi yang berpotensi berbahaya di masa depan
bahkan jika itu bukan bahaya yang sebenarnya, itu masih bisa berguna dan tidak
meningkatkan ketidakpercayaan atau mengarah ke sindrom "menangis serigala".
Misalnya, Lees dan Lee (2007) berpendapat bahwa peringatan otomatis di mobil
(mis.,peringatan tabrakan) dapat menambah penilaian pengemudi tentang manuver
mengemudi yang aman menjalankan. Demikian pula Wickens, Rice, dkk. (2009)
melakukan analisis peringatan konflik yang dikeluarkan di pusat kontrol lalu lintas
udara dan menemukan sedikit bukti bahwa pengendali rentan terhadap "serigala
menangis" efek karena peringatan, meskipun salah karena ambang peringatan
rendah, memperkuat pengontrol persepsi sendiri tentang data mentah (bahwa
bagian dekat dari kedua pesawat akan datang).
Kesimpulannya, hubungan antara kepercayaan, ketergantungan, dan
kehandalan itu kompleks, tapi ada Tidak diragukan lagi bahwa manusia tidak selalu
optimal dalam mengkalibrasi kognisi dan perilakunya, dengan konsekuensi yang
berpotensi serius apakah terlalu percaya atau kurang percaya itu nyata. Berikut ini
bagian, kami membahas beberapa solusi potensial untuk menyelaraskan interaksi
manusia-otomatisasi, termasuk otomatisasi adaptif, menemukan keseimbangan
optimal dalam tingkat dan tahap otomatisasi menyeimbangkan tradeoff antara
beban kerja dan OOTLUF yang mendasari kepercayaan terkalibrasi.
8. Otomatisasi Adaptif
Sejauh ini dalam diskusi kita tentang berbagai aspek interaksi manusia
dengan otomasi, kita punya diasumsikan bahwa sifat fungsional otomatisasi, setelah
dirancang dan diimplementasikan, tetap konstan atau statis selama operasi sistem.
Pendekatan ini, di mana karakteristik dari otomatisasi diatur pada tahap desain dan
kemudian dijalankan dengan cara yang sama selama penggunaan operasional, telah
disebut sebagai otomatisasi statis. Sebaliknya, dalam otomatisasi adaptif, level
dan/atau tahap otomatisasi tidak tetap tetapi dapat berubah selama operasi sistem.
(Feigh, Dorneich, & Hayes., 2012; Hancock & Chignell, 1989; Inagaki, 2003;
Kaber et al., 2005; Kaber & Kim, 2011; Parasuraman et al., 1992, 1996; Bangkit,
1988; Scerbo, 2001)
Skema umum untuk otomatisasi adaptif ditunjukkan pada Gambar 12.4.
Keadaan kognitif dari operator, dalam hal ini digambarkan dengan beban kerja
mental atau kapasitas manusia untuk melakukan,

Gambar 12.4 Otomatisasi Adaptif.


Beban kerja atau kapasitas manusia untuk melakukan disimpulkan dan digunakan
oleh "pengelola tugas" untuk menetapkan lebih banyak tugas ke otomatisasi (jika
beban kerja tinggi) atau ke manusia (jika beban kerja berkurang). Pengelola tugas
itu sendiri dapat berupa otomatisasi, manusia, atau a perusahaan koperasi.
Gambar 12.5 Tiga Kemungkinan Strategi Otomatisasi Adaptif. Diasumsikan
bahwa Titik B Berada di A Tingkat Otomatisasi yang Lebih Tinggi daripada
Titik A, C, Dan D.

disimpulkan dan digunakan oleh "pengelola tugas" untuk menetapkan lebih banyak
tugas ke otomatisasi (jika beban kerja tinggi) atau ke manusia (jika beban kerja
dikurangi). Pengelola tugas itu sendiri bisa berupa otomatisasi, manusia, atau badan
usaha koperasi. Gambar 12.5 menunjukkan beberapa cara yang memungkinkan
otomatisasi adaptif dapat mengubah beban kerja dan kesadaran situasi untuk
menjaga keseimbangan antara keduanya
Otomatisasi adaptif mirip dengan alokasi fungsi dinamis (Lintern, 2012;
Winter & Dodou, 2011), dimana pembagian kerja antara manusia dan mesin tidak
tetap tetapi dapat diubah, fleksibel, dan bergantung pada konteks. Misalnya, jika
beban kerja manusia yang tinggi disimpulkan di atingkat otomatisasi tertentu dan
gangguan kinerja yang akan datang dicurigai, otomatisasi dapat naik ke tingkat
yang lebih tinggi untuk mendukung operator. Di lain waktu, jika operator dalam
bahaya kehilangan kesadaran situasi karena bekerja dengan otomatisasi tingkat
tinggi, dia mungkin dibawa kembali lebih dalam lingkaran melalui pengurangan
tingkat otomatisasi. Secara umum, sistem adaptif berupaya membatasi potensi
biaya otomatisasi, khususnya OOTLUF, dan untuk meningkatkan keseluruhan
kinerja sistem dengan mengubah fungsionalitas otomasi selama operasi sistem.
Adaptif otomatisasi, berbeda dengan otomatisasi statis, memungkinkan
restrukturisasi lingkungan tugas di ketentuan (a) apa yang otomatis, (b) bagaimana
menyimpulkan, dan (c) kapan perubahan terjadi.

8.1. Apa yang Harus Diadaptasi


Masalah pertama menyangkut aspek tugas (atau kompleks tugas) apa yang
harus diadaptasi. Parasuramanet al. (1999) membedakan antara bantuan adaptif, di
mana komponen tugas tertentu berada dibuat lebih sederhana (dengan otomatisasi),
dan alokasi tugas adaptif, di mana seluruh tugas (dari konteks multitask yang lebih
besar) dialihkan ke otomatisasi.
Di sini argumen yang masuk akal dapat dibuat bahwa pilihan yang tepat harus salah
satunya mengurangi beban kerja secara maksimal, bahkan saat itu juga mengurangi
kesadaran situasi (yaitu, bergerak dari titik A ke titik B pada Gambar 12.5). Alasan
untuk argumen semacam itu adalah bahwa jika otomatisasi adaptif berpindah dari
C ke B, tidak ada penghematan beban kerja dan karenanya tidak ada alasan untuk
memohon otomatisasi di tempat pertama; dan jika berpindah dari D ke B,
komponen tugas mungkin juga demikian otomatis sepenuhnya dan tidak fleksibel,
karena ini tidak akan menghasilkan hilangnya kesadaran situasi. Misalnya kriteria
dapat diterapkan secara independen apakah bantuan adaptif atau alokasi tugas
adaptif diimplementasikan.

8.2. Bagaimana Menyimpulkan


Kedua, masalah kritis menyangkut bagaimana menyimpulkan kapan
perubahan adaptif harus dilakukan. Untuk melakukannya efektif, baik operator
maupun sistem otomatis harus memiliki pengetahuan satu sama lain kemampuan,
kinerja, dan keadaan saat ini. Beberapa pendekatan yang berbeda telah diusulkan
untuk menghasilkan kriteria untuk mengadaptasi otomasi kepada pengguna
(Parasuraman et al., 1992; Rouse, 1988): (1) Ditentukan secara lingkungan, di mana
fungsi otomasi bervariasi sebagai respons terhadap perubahan lingkungan yang
mudah diukur atau kondisi tugas eksternal, misalnya, memberikan peringatan
penurunan ke pengontrol lalu lintas udara hanya ketika beban atau kompleksitas
lalu lintas tinggi tetapi tidak sebaliknya (Hilburn et al., 1997); (2) penilaian
berkelanjutan atas kinerja operator (Kaber & Endsley, 2004; Parasuraman et al.,
2009); atau (3) penilaian berkelanjutan beban kerja mental, melalui langkah-
langkah neuroergonomis (Wilson & Russell, 2007), sehingga operator dibantu
ketika keadaan sub optimal (misalnya, beban kerja tinggi) terdeteksi.
Sebagai contoh pemicu lingkungan, Parasuraman et al. (1999) menunjukkan
keberhasilan otomatisasi adaptif dalam penerbangan, yang digunakan dalam fase
lepas landas dan pendaratan (dikenal sebagai paling menuntut), tetapi dihapus
selama porsi pelayaran midflight dengan beban kerja rendah. Pada kasus ini kondisi
eksternal adalah fase penerbangan yang diketahui. Inagaki (1999) mengemukakan
hal yang berbeda periode waktu selama akselerasi pesawat untuk lepas landas
membuatnya lebih atau kurang penting agar otomatisasi memikul tanggung jawab
atas keputusan lepas landas yang ditolak, seharusnya keputusan tersebut diperlukan
setelah kerusakan mesin. Berikut berlalunya waktu dan kecepatan pesawat adalah
kondisi eksternal. Dalam mengemudi, orang mungkin mempertimbangkan bantuan
otomasi yang menggunakan kegelapan malam (kondisi eksternal) untuk
menyimpulkan bahwa pengemudi mungkin lebih lelah dan kurang waspada
mengadaptasi perangkat peringatan otomatis, peka terhadap penyimpangan jalur.
Ukuran kinerja juga dapat mendorong adaptasi, terutama sejauh pemodelan
kinerja yang baik telah mengungkapkan “indikator utama” yang jelas yang
menunjukkan perincian berikutnya. Kaber dan Riley (1999), misalnya,
mendemonstrasikan manfaat bantuan adaptif pada primer tugas (tugas pemantauan
dan kontrol kognitif dinamis) yang didasarkan pada degradasi tugas sekunder yang
dipantau otomatisasi. Parasuraman dkk. (2009) menggunakan kinerja pada
perubahan tugas deteksi—mendeteksi perubahan ikon pada peta situasi—untuk
mendorong bantuan adaptif (otomatis pengenalan target, ATR) pada tugas yang
membutuhkan pengawasan udara dan darat tak berawak ganda kendaraan.
Dibandingkan dengan kinerja tanpa ATR, atau otomatisasi statis di mana ATR
berada terus tersedia, kondisi otomatisasi adaptif dikaitkan dengan pengurangan
beban kerja dan peningkatan kesadaran situasi.
Beban kerja mental atau keadaan kognitif dapat dipantau secara langsung
seperti yang dinilai secara fisiologis langkah-langkah, seperti yang dibahas dalam
Bab 11. Langkah-langkah tersebut memiliki beberapa keuntungan atas kinerja
langkah-langkah, terutama bandwidth mereka yang lebih tinggi dan kemampuan
untuk diperoleh bahkan jika tidak ada output perilaku terbuka yang mungkin
menarik sumber daya perhatian dari primer tugas yang menarik (Kramer &
Parasuraman, 2007). Dalam dekade terakhir sejumlah studi telah mengeksplorasi
kemungkinan menggunakan langkah-langkah seperti EEG, detak jantung, dll.
dalam otomatisasi adaptif (Dorneich, Ververs, et al., 2012; Feigh et al., 2012;
Scerbo, 2001).
Misalnya, Wilson dan Russell (2007) meminta peserta mengawasi
kendaraan udara tak berawak (UAV) yang memberikan gambar radar dari lokasi
target kritis di mana senjata harus dilepaskan. EEG, gerakan mata, dan detak
jantung dipantau dan digunakan untuk melatih saraf tiruan jaringan untuk
mengenali beban kerja mental rendah dan tinggi. Saat mendeteksi beban kerja yang
tinggi, operator dibantu oleh otomatisasi yang memperlambat kecepatan UAV yang
relevan, sehingga memberikan waktu tambahan bagi operator untuk menyelesaikan
tugas penargetan sebelum kendaraan mencapai titik pelepasan senjata.
Dibandingkan dengan kondisi manual atau kondisi di mana bantuan adaptif
diberikan secara acak, otomatisasi adaptif menyebabkan peningkatan yang
signifikan dalam kinerja penargetan.
Ukuran fisiologis keadaan operator dapat dikombinasikan dengan
lingkungan dan lainnya tindakan operator untuk menyimpulkan kapan harus
membantu operator. Ting dkk. (2010), misalnya, menggunakan an jaringan saraf
tiruan untuk mengintegrasikan indeks fisiologis yang berbeda (detak jantung, EEG)
dengan ukuran kinerja untuk memicu bantuan adaptif dalam tugas kontrol proses
yang disimulasikan. Inagaki (2008) menggunakan pengukuran fisiologis seperti
suhu ujung telinga dan hidung serta data fiksasi mata yang dikombinasikan dengan
pengukuran kinerja untuk menentukan kapan pengemudi membutuhkan bantuan
dalam simulasi skenario tabrakan.
Program penelitian dan pengembangan DARPA yang dikenal sebagai
Augmented Cognition telah dilakukan mengembangkan sistem neurofisiologis-
adaptif yang berpotensi diterjunkan (Schmorrow, 2005). Dalam salah satu studi
yang didanai oleh program ini, Dorneich et al. (2007) menggunakan rekaman EEG
pada individu seluler untuk memperkirakan beban kerja yang tinggi dan untuk
menggerakkan penjadwal komunikasi itu akan memblokir pesan masuk saat beban
kerja tinggi terdeteksi. Studi serupa menggunakan beberapa Parameter EEG untuk
mengestimasi beban kerja operator secara real time menggunakan pembelajaran
mesin yang berbeda teknik untuk menggerakkan otomatisasi adaptif juga telah
dilaporkan (Baldwin & Penaranda, 2012; Christensen et al., 2012; Wang et al.,
2012).
Seberapa praktiskah sistem adaptif yang menggunakan tindakan fisiologis
untuk menilai keadaan kognitif operator? Jelas, terlepas dari keuntungannya,
langkah-langkah tersebut menghadapi tantangan seperti memperoleh pengukuran
bebas artefak di lingkungan kerja nyata dan penerimaan pengguna (Cummings,
2010). Kekhawatiran utama dengan kedua indikator utama kinerja dan penilaian
keadaan fisiologis adalah bahwa kedua sumber ini memerlukan waktu untuk
mengintegrasikan jumlah yang cukup. data sehingga kesimpulan yang andal dapat
dibuat bahwa kapasitas untuk melakukan semakin berkurang (atau pulih). Jika
waktu dan data yang memadai tidak diperbolehkan, maka inferensi perubahan
kapasitas mungkin terjadi salah, dan ini dapat menyebabkan adaptasi meningkatkan
beban kerja saat penurunan diinginkan, atau dan sebaliknya. Di sisi lain jika waktu
yang cukup untuk mencapai perkiraan yang andal digunakan dan dinamis
perubahan dalam beban kerja lingkungan hadir, kemudian, diberi umpan balik yang
ditunjukkan pada Gambar 12.4 lag yang dihasilkan dalam inferensi dapat
menghasilkan ketidakstabilan loop tertutup, dalam pengertian yang dijelaskan
dengan tugas pelacakan di Bab 5. Artinya, kesimpulan beban kerja tinggi (atau
rendah) dapat ditarik setelah penundaan yang substansial, dan bantuan adaptif
diterapkan (atau dihapus) pada saat itu juga beban kerja kini telah berkurang (atau
meningkat). Dalam hal ini penting bagi para pendukung sistem otomasi adaptif loop
tertutup berusaha keras untuk menetapkan waktu yang diperlukan agar dapat
diandalkan perkiraan beban kerja berdasarkan EEG atau tindakan lain (Christensen
et al., 2012).

8.3. Siapa yang Memutuskan


Masalah ketiga tentang otomatisasi adaptif, dan mungkin yang paling
kontroversial, adalah masalah "siapa yang memutuskan" apakah akan menerapkan
atau menghapus otomatisasi. Artinya, dalam konteks Gambar 12.4, siapa “task
manager?” Pada bagian sebelumnya, diasumsikan secara implisit bahwa mesin itu
sendiri bertanggung jawab untuk menjalankan otomatisasi, mengikuti sinyal dari
satu atau lebih dari tiga sumber inferensi; kondisi eksternal, indikator utama, atau
beban kerja. Kita mungkin katakanlah bahwa pengelola tugas itu sendiri bekerja
pada otomatisasi tahap 3 tingkat tertinggi (Gambar 12.2). Sebaliknya, argumen
dapat dibuat bahwa manusia itu sendiri mampu memantau beban kerja mereka
sendiri (atau kapasitas untuk melakukan) dan membuat pilihan yang tepat untuk
memohon atau menghapus tingkat otomatisasi yang lebih tinggi, sebuah konsep
yang terkadang disebut sebagai otomatisasi yang dapat disesuaikan (Ferris et al.,
2010).
Data yang ada tetap ambigu di mana pilihan harus berada. Salah satu isu
yang relevan adalah akurasi penilaian manusia sendiri tentang kemampuan mereka
untuk tampil. Sampai-sampai manusia cenderung terlalu percaya diri atau tidak
akurat dalam kemampuan ini (Horrey et al., 2009; lihat juga Bab 8), khususnya
dalam kaitannya dengan kinerja mesin pada tugas yang setara (Liu et al., 1993),
kemudian beberapa hati-hati harus dilakukan mengenai kebijaksanaan pilihan
manusia.
Memperkuat preferensi untuk mesin daripada pilihan manusia ini adalah
hasil dari adaptif membantu studi oleh Kaber dan Riley (1999). Menggunakan
kinerja tugas sekunder untuk menerapkan bantuan adaptif pada tugas video game,
Kaber dan Riley membandingkan dua strategi: strategi mandat langsung
mengimplementasikan bantuan ketika diasumsikan, dengan otomatisasi, menjadi
diinginkan (tertinggi otomatisasi tahap 3), sedangkan strategi penasehat hanya
memberikan saran yang sesuai (atingkat yang lebih rendah dari otomatisasi tahap
3). Para penulis mengamati biaya untuk saran yang kurang otomatis strategi, biaya
yang mereka kaitkan dengan tuntutan beban kerja tambahan ketika operator harus
memantau kinerja mereka sendiri, dan kemudian memutuskan apakah otomatisasi
diperlukan atau tidak. Inagaki (2008) juga mencatat bahwa otoritas mesin
menerapkan perubahan adaptif saat inferensi dibuat bahwa manusia tidak dapat
menghindari situasi berbahaya secara efektif, sementara kontroversial, bisa
dibenarkan dalam hal-hal tertentu. Namun, posisi seperti itu cenderung sangat
spesifik domain. Inagaki (2008) menyarankan bahwa mungkin lebih mudah untuk
membenarkan otoritas komputer dengan pengguna sehari-hari otomatisasi seperti
pengemudi mobil, yang cenderung sangat bervariasi dalam kemampuan dan
keterampilan, daripada itu akan untuk terampil, pengguna ahli seperti pilot pesawat
atau dokter.
Untuk argumen formal berbasis data ini untuk otoritas komputer sebagai
pengelola tugas pertimbangan tambahan dari beberapa skenario hipotetis yang
meyakinkan. Misalnya, kebanyakan orang akan melakukannya mungkin setuju
bahwa otomatisasi harus bertanggung jawab untuk mengadaptasi kemudi otomatis
dan memperlambat (bersama dengan peringatan) jika kesimpulan yang dapat
diandalkan diambil bahwa pengemudi tertidur, atau sebaliknya tidak berdaya.
Tetapi faktor kuncinya di sini adalah keandalan; dan tampaknya semakin sedikit
andalkan inferensi, tingkat yang lebih rendah atau tahap awal di mana keputusan
otomasi seharusnya aktif skala tahap 2 (analisis informasi) Gambar 12.2. Misalnya,
dalam kasus khusus ini, pertimbangkan untuk mengingatkan daripada merebut
kendali. Dengan mengadaptasi tingkat menengah dari skala ini, perancang
melakukannya mendukung konsep manusia-mesin yang kolaboratif dan kooperatif;
satu dengan baik dalam semangat otomatisasi yang berpusat pada manusia.
Miller dan Parasuraman (2007) juga mengemukakan bahwa terdapat banyak
situasi di mana menempatkan manusia yang bertanggung jawab atas perubahan
fungsi otomasi dapat bermanfaat. Mereka menguraikan arsitektur untuk kontrol
otomatisasi yang "dapat disesuaikan" (lihat Opperman, 1994) yang disebut
"Playbook", di mana manusia dapat mendelegasikan tugas ke otomatisasi dengan
"lepas tangan" yang tinggi tingkat atau dengan menetapkan berbagai ketentuan dan
batasan. Parasuraman dkk. (2005) melaporkan a studi simulasi interaksi manusia-
robot di mana mereka menemukan manfaat kinerja untuk Pendekatan Playbook
untuk otomatisasi adaptif.
Konsep otomatisasi adaptif/beradaptasi adalah pendekatan yang menarik
secara konseptual desain sistem manusia-mesin, memanfaatkan kekuatan manusia
dan mesin secara dinamis dan mode kooperatif (Musim Dingin & Dodou, 2011).
Konsep terkait otonomi yang dapat disesuaikan juga telah dikemukakan di bidang
interaksi manusia-robot, di mana manfaat relatif dari perubahan yang diarahkan
mesin versus yang diarahkan manusia dalam otonomi relatif robot telah
diperdebatkan (Cummings et al., 2010; Goodrich et al., 2007; Valero-Gomez et al.,
2011).
Konsep otomasi adaptif/adaptasi tentu tetap berada di garis depan pemikiran
para perancang dari banyak sistem kompleks yang sangat otomatis (Ahlstrom et al.,
2005; Inagaki, 2003; Miller & Parasuraman, 2007; Parasuraman et al., 2007;
Valero-Gomez et al., 2011). Namun seperti yang kita miliki dibahas, ada banyak
masalah yang harus diatasi sebelum sistem yang layak dapat menjadi efektif atau
bahkan layak. Yang paling penting, ini akan tergantung pada pemahaman yang
lebih baik dan berkelanjutan tentang dasar-dasar perhatian manusia, bersama
dengan bidang kinerja manusia yang menarik. teori yang baru-baru ini menerima
minat dalam domain faktor manusia — komunikasi, kerjasama, dan kepercayaan

9. Merancang untuk Interaksi Manusia-Otomasi yang Efektif


Di halaman sebelumnya, kami telah mengidentifikasi sejumlah masalah
kinerja manusia yang muncul saat pengguna berinteraksi dengan sistem otomatis.
Banyak dari masalah ini lazim dalam sistem yang dirancang murni dari perspektif
yang berpusat pada teknologi. Sebaliknya, penelitian dua dekade terakhir pada
interaksi manusia-otomatisasi telah menunjukkan beberapa solusi untuk masalah
ini (Degani, 2004; Parasuraman, 2000; Sheridan, 2002; Sheridan & Parasuraman,
2006; Sethumadhavan, 2011). Solusi ini diidentifikasi secara implisit dalam
pembahasan kita sebelumnya tentang masalah interaksi otomasi manusia. Banyak
dari ini dapat dikelompokkan secara longgar di bawah rubrik yang berpusat pada
manusia otomatisasi (Billings, 1997). Perlu dicatat bahwa solusi ini belum tentu
memberikan penggunaan otomatisasi yang optimal dari sudut produktivitas atau
kinerja sistem, tetapi harus, jika diikuti, berikan margin keamanan yang lebih besar,
kepuasan lebih bagi pengguna manusia, dan episode "pemulihan manual" yang
paling tidak mengganggu dalam hal kegagalan sistem.

9.1. Masukan
Kami melihat sebelumnya bahwa banyak kasus kecelakaan dan insiden
dalam sistem otomatis terjadi karena operator manusia diberikan umpan balik yang
buruk atau tidak ada sama sekali tentang status otomatisasi dan perilaku (Norman,
1990). Oleh karena itu, perancang otomasi harus berupaya untuk menampilkannya
informasi penting mengenai status otomatisasi saat ini, perubahan dalam status
tersebut (mis., a beralih di tingkat otomatisasi), dan status proses yang dipantau atau
dikendalikan oleh otomatisasi (misalnya, variabel kontinu yang dirasakan oleh
alarm otomatis). Harus mencatat bahwa jenis umpan balik harus dipikirkan dengan
cermat; umpan balik yang disajikan dengan buruk atau berlebihan bisa sama
buruknya dengan tidak ada umpan balik sama sekali. Dalam Bab 4, kami membahas
beberapa studi kasus tentang tampilan yang berhasil dalam konteks desain
antarmuka ekologis (Seppelt & Lee, 2007).
Salah satu pendekatan untuk memberikan umpan balik operator kepada
operator adalah dengan menggunakan multi-modal tampilan, agar tidak membebani
saluran sensor utama yang digunakan operator, yang biasanya penglihatan (lihat
Bab 7). Saluran pendengaran dapat dipertimbangkan, dan ada contoh
penggunaannya umpan balik pendengaran untuk memberikan informasi tentang
keadaan sistem untuk meningkatkan kinerja terutama tugas visual (Ho & Spence,
2008). Namun, saat tampilan pendengaran tumbuh dalam kecanggihan dengan
munculnya "earcons" pendengaran, penyintesis ucapan, dll. (Baldwin, 2012, lihat
Bab 6), bahkan saluran pendengaran bisa menjadi ramai. Akibatnya, sejumlah
peneliti telah mengeksplorasi utilitas tampilan haptic atau taktil sebagai saluran
umpan balik (Sarter, 2007). Misalnya, Sklar dan Sarter (1999) menunjukkan bahwa
tampilan taktil yang dikenakan di pergelangan tangan dapat memberikan informasi
tentang FMS perubahan mode tanpa mengganggu kinerja penerbangan utama,
sekaligus meningkatkan deteksi peringatan.

9.2. Tingkat dan Tahapan Otomasi yang Sesuai


Mengintegrasikan diskusi kita tentang kepercayaan/ketergantungan dengan
tahapan dan tingkat otomatisasi, kita memahami bahwa "lebih banyak otomatisasi"
(misalnya, tahap yang lebih banyak dan selanjutnya dari tingkat yang lebih tinggi
dalam satu tahap; tingkat otomatisasi yang lebih tinggi) mungkin merupakan
pedang bermata dua. Biasanya tingkat otomatisasi yang lebih tinggi akan
meningkatkan kinerja rutin dan/atau mengurangi beban kerja. (Jika tidak satu pun
dari ini diamati, otomatisasi jelas salah dari perspektif kinerja manusia.) Tetapi
tingkat yang meningkat juga cenderung meningkatkan OOTLUF (dengan
menurunkan kesadaran situasi) dan, sebagai konsekuensinya, menurunkan
manajemen kegagalan. Dengan demikian, peningkatan beban kerja dan kinerja rutin
yang ditimbulkan oleh peningkatan derajat otomatisasi diimbangi dengan hilangnya
SA dan respons kegagalan (Wickens, Li, et al., 2010). (Pengorbanan ini analog
dengan perubahan deteksi sinyal, yang dibawa tentang dengan meningkatkan beta,
kesalahan, dan alarm palsu.) Selanjutnya, pengorbanan ini akan muncul.
GAMBAR 12.6 Tradeoff hipotetis antara kinerja rutin dan kegagalan, dan di
antaranya beban kerja dan hilangnya kesadaran situasi, sebagai tingkat otomatisasi
yang tidak sempurna (tahapan dan tingkat) meningkat.

untuk ditingkatkan karena keandalan otomasi meningkat. Pengorbanan hipotetis


dari variabel-variabel ini dengan DOA ditunjukkan pada Gambar 12.6.

Jika kinerja, beban kerja, dan fungsi SA tingkat otomatisasi ini dapat
diprediksi dan andal, mereka kemudian dapat digunakan untuk menetapkan tingkat
otomatisasi yang optimal ke sejauh seorang desainer dapat menetapkan bobot relatif
untuk ditugaskan untuk meningkatkan kinerja (baik rutin maupun kegagalan) dan
mengurangi beban kerja. Tapi ini terbukti menjadi tugas yang menantang.
Tentu saja ada beberapa studi yang memiliki tahapan dan/atau level yang
bervariasi sambil mengukur beberapa dari variabel kritis ini. Sebuah studi klasik
dijelaskan dalam Bab 6 oleh Crocoll dan Coury (1990), yang membandingkan
tampilan status (otomatisasi tahap 2) dengan tampilan perintah (tahap 3) dan
menemukan bahwa sementara yang terakhir menyukai kinerja rutin, yang pertama
lebih menyukai manajemen kegagalan pertunjukan. Temuan analogi diperoleh
Sarter dan Schroeder (2001) saat mengevaluasi otomatisasi untuk mencegah icing
pesawat, kontras dengan tampilan yang menunjukkan kesimpulan di mana es
sedang menumpuk (tahap 2) atau penasihat komando yang merekomendasikan
manuver untuk pulih Lapisan gula. Sebuah studi klasik yang meneliti tradeoff lintas
tingkat otomatisasi dilakukan oleh Endsleydan Kiris (1995). Mereka meneliti efek
dari bantuan keputusan mengemudi dalam penelitian ini dan mengamatinya titik
optimal pada tradeoff adalah otomatisasi tingkat menengah ke atas, tetapi tidak
pada tingkat tertinggi.
Rovira dkk. (2007) meneliti lebih lanjut efek dari berbagai tingkat
keandalan otomasi (60 persen dan 80 persen) dan tiga tingkat otomatisasi keputusan
yang berbeda pada kinerja gangguan dengan otomatisasi keputusan yang tidak
sempurna. Biaya kinerja dari keputusan yang tidak akurat saran paling menonjol
pada otomatisasi tingkat tertinggi (yaitu ketika rekomendasi khusus untuk
keputusan optimal diberikan) dan ketika keandalan otomatisasi tinggi.
Wickens, Li, dkk. (2010) berusaha untuk mengintegrasikan dalam meta-
analisis kebijaksanaan kolektif ini dan beberapa penelitian lain yang memvariasikan
tingkat otomatisasi yang tidak sempurna, sambil menilai dua atau lebih dari empat
variabel kritis (kinerja dalam situasi rutin dan mode kegagalan, beban kerja dan
kesadaran situasi, seperti yang ditunjukkan pada gambar 12.6) (mis. , Manzey, D.,
Reichenbach, J., & Onnasch, L., 2012; Sethumadhavan, 2009; Kaber, Onal, &
Endsley, 2000). Hasil dari analisis meta mengungkapkan tren kinerja yang
konsisten di seluruh studi: kinerja rutin meningkat dan kinerja kegagalan menurun
seiring dengan peningkatan tingkat otomatisasi. Namun, hasil untuk penurunan
beban kerja dan penurunan kesadaran situasi kurang jelas (di sebagian mengingat
kurangnya studi yang menilai SA di berbagai tingkat otomatisasi yang tidak
sempurna).
Selain fakta bahwa umpan balik yang baik mungkin dapat memindahkan
titik optimal lebih jauh hak Gambar 12.6, dapat juga dikemukakan bahwa, ketika
risiko ketidaksempurnaan dan manusia/ kesalahan otomatisasi tinggi, titik optimal
harus dipindahkan lebih ke kiri (Parasuraman, Sheridan, & Wickens, 2000), tetapi
ketika tekanan waktu sangat tinggi, sehingga manusia keputusan operator mungkin
tidak dapat dibuat tepat waktu (seperti keputusan untuk mematikan mesin saat lepas
landas; Inagaki, 2003), titik optimal sistem otomasi untuk mendukung pilot dalam
keputusan harus dipindahkan lebih jauh ke kanan. Namun, satu temuan
memberikan catatan khusus. Studi-studi di mana tingkat otomatisasi yang lebih
tinggi terbukti memiliki kesadaran situasi yang lebih tinggi adalah studi-studi di
mana rutinitas dan kegagalan kinerja meningkat sebagai tingkat otomatisasi
meningkat. Kita mungkin menyimpulkan bahwa ini adalah studi di mana para
peneliti memainkan perhatian khusus pada desain tampilan yang efektif, dan
transparansi umpan balik, poin yang kami bahas secara rinci di bagian sebelumnya.

9.3. Merancang untuk Otomasi Manusia "Etiket"


Seperti yang telah dibahas sebelumnya, kepercayaan memainkan peran
penting dalam menentukan sejauh mana manusia operator bergantung pada sistem
otomatis. Kepercayaan memiliki sifat kognitif dan afektif. Itu yang terakhir
mengambil peran yang lebih menonjol karena sistem otomatis meningkat dalam
"kecerdasan" mereka dan dalam kemampuan mereka untuk berinteraksi dengan
manusia dengan cara yang meniru interaksi manusia-manusia—misalnya,
melalui komunikasi suara dan “tatap muka”. Nass dan rekan (Nass et al., 1995;
Reeves & Nass, 1996) telah menunjukkan bahwa orang sering menanggapi
komputer secara sosial dengan cara yang serupa mereka berinteraksi secara normal
dengan orang lain. Karena beberapa bentuk otomasi tampaknya diberkahi dengan
kecerdasan yang lebih tinggi dan dengan sifat mirip manusia lainnya, oleh karena
itu, penting untuk menanyakan apakah mereka harus dirancang untuk bertindak
dengan cara yang sesuai secara sosial dengan manusia.
Interaksi kita dengan orang lain biasanya diatur oleh aturan yang dipahami
secara implisitdan dipatuhi di sebagian besar pengaturan, baik formal maupun
informal. Etiket seperti itu, atau kepatuhan terhadap suatu kode perilaku yang
diterima tetapi seringkali tersirat di antara individu-individu dalam lingkungan
sosial apa pun, mungkin juga penting untuk hubungan manusia-komputer yang
efektif. Parasuraman dan Miller (2004) menunjukkan bahwa etiket dapat
memengaruhi efisiensi yang digunakan operator untuk membuat keputusan
diagnostik saat menggunakan otomatisasi. Mereka menguji peserta pada simulasi
MATB dengan pesawat otomatis sistem manajemen kesalahan yang memberikan
saran tentang kemungkinan kesalahan mesin. Dalam satu syarat otomatisasi
mengikuti etiket yang baik, yaitu memberikan peringatan awal kepada peserta dan
kemudian menunggu bagi mereka untuk menyelesaikan apa yang mereka lakukan
sedang mengeluarkan penasehat. Dalam kondisi kedua, the otomatisasi
menampilkan etiket yang buruk dengan tidak memperingatkan peserta dan tidak
menunggu mereka melakukannya.
Ada juga aspek etiket selain mengetahui kapan dan kapan tidak menyela.
Grice (1975) menggambarkan praktik perilaku yang memungkinkan interaksi yang
dapat diterima dan efisien antara orang. Misalnya, dalam percakapan dengan orang
lain, kita biasanya berusaha menghindari keberadaan kabur atau ambigu jika kita
ingin berkomunikasi secara efektif. Hayes dan Miller (2011) menyarankan bahwa
sistem otomatis juga harus menghindari ketidakjelasan atau ambiguitas. Dalam
pandangan ini, otomatisasi yang dirancang untuk mengikuti aksioma etiket yang
disepakati seperti itu cenderung diterima dan disukai operator manusia
menyelesaikan apa yang mereka lakukan. Akurasi diagnostik sekitar 20 persen
lebih tinggi dalam kondisi etiket yang baik daripada dalam kondisi etiket yang
buruk. Dorneich, Ververs, dkk. (2012) dilaporkan manfaat serupa dari etiket
otomatisasi yang baik pada kinerja multitasking. Mereka mendesain sebuah
sistem otomasi adaptif yang mengelola aliran pesan ke pengguna hanya dengan
mengarahkan tinggi pesan prioritas kepada pengguna saat beban kerja pengguna
tinggi dan menyimpan pesan dengan prioritas rendah untuk dilihat nanti, dengan
cara yang mirip dengan asisten manusia yang mengikuti etiket yang baik

9.4. Mengkalibrasi Kepercayaan Operator: Desain Tampilan dan Pelatihan


Seperti yang telah kita lihat, kepercayaan yang dikalibrasi dengan buruk
merupakan kontributor utama otomatisasi manusia yang tidak efisien interaksi.
Pengguna manusia menunjukkan kepercayaan yang kurang dan berlebihan.
Keduanya dapat diperbaiki melalui memperhatikan desain dan pelatihan otomasi.
Kami pertama-tama membahas kemungkinan solusi untuk ketidakpercayaan, dan
kemudian ke tantangan kepercayaan berlebihan dan kepuasan diri.
9.4.1. Mengurangi Kepercayaan
Materi di Bagian 7.2, dengan mengidentifikasi sumber ketidakpercayaan
dalam otomasi, secara implisit menyarankan solusi. Misalnya, menyederhanakan
kompleksitas fungsi otomasi dan/atau membuatnya lebih "transparan" kepada
pengguna melalui tampilan yang bagus harus mengurangi ketidakpercayaan. Begitu
juga harus meningkatkan pelatihan pengawas manusia dari fungsi algoritma
tersebut. Untuk mencegah ketidakpercayaan terhadap peringatan rawan alarm
palsu, kami mengacu pada pembaca kembali ke poin-poin yang dibuat di Bab 2
(Bagian 4.3) tetapi ingin mengelaborasi pembaca pada dua hal dari mereka:
masalah pelatihan dan peringatan kemungkinan
Pertama, berkaitan dengan pelatihan, pengguna sistem alarm perlu
menyadari bahwa, dikondisi di mana kegagalan sistem mungkin halus namun
bencana dan peringatan dini demikian diinginkan, dan di mana tingkat kegagalan
dasar cukup rendah; maka alarm false alarm adalah konsekuensi yang tidak dapat
dihindari untuk ditoleransi (Parasuraman et al., 1997)
Kedua, mengenai tampilan, ada bukti bahwa alarm bisa menjadi masalah
alarm palsu dikurangi sampai batas tertentu melalui penggunaan tampilan
kemungkinan (Sorkin et al., 1988). Tampilan seperti itu memberikan dua atau lebih
tingkat kepastian bahwa kondisi kritis ada. Intinya, seperti itu konsep
memungkinkan sistem untuk mengatakan "Saya tidak yakin" daripada hanya
mengeluarkan alarm penuh atau tidak sama sekali (dan menetapkan kriteria berisiko
untuk menghindari kesalahan). Seperti yang kita pelajari di Bab 2, mengizinkan
detektor sinyal manusia untuk mengekspresikan kepercayaan mereka pada "sinyal-
hadir" di lebih dari satu tingkat meningkatkan kinerja deteksi manusia. Demikian
pula, memungkinkan sistem alarm yang sesuai resolusi dalam kepercayaan
memberikan peningkatan yang sesuai dalam kepekaan manusia dan sistem bersama
(Sorkin et al., 1988)
Dalam studi lapangan tentang sistem deteksi ancaman keamanan tanah air,
portal radiasi di perlintasan perbatasan, Sanquist et al. (2008) menunjukkan bahwa
menggunakan tampilan alarm kemungkinan dan analisis Bayesian bisa mengurangi
masalah alarm palsu. Monitor untuk mendeteksi sumber radioaktif tersebut
(misalnya, "bom kotor") yang saat ini dikerahkan di perlintasan perbatasan
diganggu oleh “alarm gangguan”—alarm yang muncul karena benda-benda yang
bersifat radioaktif tetapi bukan merupakan ancaman nyata, seperti pupuk, kotoran
hewan peliharaan, atau buah yang disinari. Sanquist dkk. pertama-tama
memperkirakan tingkat dasar (sangat rendah) dari ancaman sebenarnya (mis.,
tingkat senjata plutonium) dan menyediakan kriteria desain untuk meningkatkan
nilai prediksi positif (PPV) alarm—itu probabilitas bahwa, mengingat alarm,
ancaman yang sebenarnya ada. Mereka juga menunjukkan bahwa PPV dapat
ditingkatkan (dan alarm gangguan berkurang) dengan memasukkan informasi
manifes kargo (mis., apakah sebuah truk membawa pupuk) dalam algoritma sistem
deteksi. Akhirnya, mereka menunjukkan penggunaan tiga tingkat tampilan
kemungkinan (mis., “Lulus: tidak ada materi yang menjadi perhatian”; “Peringatan:
bahan radiasi alami; dan “Alarm: potensi ancaman bahan radiasi”) juga secara
substansial mengurangi peringatan palsu.

9.4.2 Mengurangi Kepercayaan Berlebihan dan Kelemahan


Untuk mengurangi kepercayaan, kalibrasi fenomena kepercayaan
berlebihan, ada beberapa bukti bahwa penyediaan informasi keandalan otomasi
dapat membantu pengguna mengkalibrasi kepercayaan dan ketergantungan mereka
pada identifikasi pertempuran otomatis sistem (Neyedli et al., 2011; Wang et al.,
2009). Seperti yang kami sarankan secara implisit di Bagian 7.1.1, dengan
membandingkan respons kegagalan pertama dengan respons selanjutnya terhadap
kegagalan otomatisasi (mis., Parasuraman & Molloy, 1996; Merlo et al., 2003;
Manzey, D., Reichenbach, J., & Onnasch, L., 2012, Wickens et al., 2009), salah
satu teknik terbaik adalah menyingkirkan "kegagalan pertama" dengan pelatihan
atau praktik otomatisasi, sebelum penggunaan waktu nyata dilakukan. Oleh karena
itu, "kegagalan pertama" dalam penggunaan waktu nyata itu sekarang sebenarnya
adalah "kegagalan berikutnya" setelah sejumlah ketidakpercayaan dalam
otomatisasi telah dibiarkan menumpuk.
Namun yang penting, cukup beri tahu pengguna otomasi bahwa kegagalan
dapat terjadi (Skitka, Mosier, & Burdick 2000) jauh kurang efektif daripada yang
sebenarnya mengalami kegagalan itu, sebuah kesimpulan bergema bahwa
mengenai debiasing dalam pengambilan keputusan, dibahas dalam Bab 8, Bagian
9.1 (Larrick, 2006). Kesimpulan ini ditonjolkan oleh temuan Bahner, Huper, dan
Manzey
(2008), yang meneliti apakah pengalaman kegagalan otomasi dapat mengurangi
rasa puas diri. Mereka menguji dua kelompok peserta dalam simulasi kontrol proses
di mana otomatisasi manajemen kesalahan memberikan saran tentang kesalahan
sistem. Satu kelompok hanya diberi tahu bahwa otomatisasi akan bekerja dengan
sangat andal, meskipun tidak sempurna, dan mereka harus memverifikasi masing-
masing diagnosis sebelum menerimanya dengan memeriksa sumber informasi yang
berkaitan dengan diagnosis ("kelompok dalam formasi"). Kelompok lain menerima
informasi yang sama tetapi juga diekspos untuk beberapa kegagalan otomatisasi
(diagnosis salah) selama pelatihan ("grup pengalaman"). Mengikuti karya Lee dan
Moray (1992), Bahner dan rekannya menemukan bahwa pengalaman itu tidak
sempurna otomatisasi mengurangi kepercayaan keseluruhan dan dengan demikian
tingkat kepuasan, yang mereka ukur dengan jumlah parameter informasi diperiksa
sebelum menerima diagnosis. Peserta di "grup informasi" mengambil sampel
parameter informasi lebih sedikit daripada "grup pengalaman". Ini temuan
menunjukkan bahwa pelatihan dengan paparan kegagalan otomasi dapat
mengurangi rasa puas diri.

10. Kesimpulan
Sistem otomatis, mendukung atau mengganti semua tahapan pemrosesan
informasi manusia, ditemukan dalam semua aspek pekerjaan dan kehidupan—di
bidang manufaktur, pembangkit listrik, perawatan kesehatan, transportasi, kantor,
rumah, dan di banyak industri lainnya. Di banyak lingkungan seperti itu,
otomatisasi telah meningkat efisiensi, peningkatan keselamatan, dan pengurangan
beban kerja operator. Pada saat yang sama, otomatisasi juga memperkenalkan
masalah baru dan mengubah sifat kerja kognitif operator manusia, yang kadang-
kadang telah menyebabkan insiden dan kecelakaan. Beberapa masalah kinerja
manusia muncul karena sistem otomatis sering dirancang dari perspektif yang
berpusat pada teknologi. Ini termasuk beban kerja mental yang tidak seimbang,
kesadaran situasi yang berkurang, dan kepercayaan yang tidak terkalibrasi,
keduanya kurang percaya dan terlalu percaya. Sejumlah pendekatan untuk
merancang otomatisasi manusia yang efektif interaksi dimungkinkan. Ini termasuk
menggunakan level dan tahapan otomatisasi yang sesuai, pengurangan
kompleksitas otomatisasi, memberikan umpan balik, dan pelatihan untuk
kepercayaan yang terkalibrasi. Adaptif / mudah beradaptasi otomatisasi juga dapat
membantu mengurangi beberapa biaya kinerja manusia dari otomatisasi, meskipun
pekerjaan lebih lanjut perlu dilakukan pada kelayakan praktisnya sebagai pilihan
desain.

Anda mungkin juga menyukai