Anda di halaman 1dari 3

Kelompok 6, XI.3.

“Teknologi”
Anggota:
1. Adzra Afifah
2. Aliyah Amirah
3. Rizany Chairunnisa

Peneliti Sebut Teknologi AI Ahli dalam Menipu Manusia, Ini Buktinya!

Jakarta - Kehadiran kecerdasan buatan atau artificial intelligence (AI) di tengah-tengah


kehidupan manusia bagaikan pisau bermata dua. Di satu sisi AI sangat memudahkan kehidupan
manusia, namun di sisi lain teknologi ini bisa membawa petaka.

Dilansir dari detikINET, salah satu kekhawatiran akan kehadiran AI adalah tentang
betapa mudahnya AI berbohong kepada kita dan apa dampaknya di masa depan. Bahkan, AI kini
disebut-sebut sebagai teknologi yang ahli dalam menipu manusia.

Dilansir dari BGR, disebutkan bahwa Chat GPT dan sistem AI lainnya memiliki
kecenderungan "menghalusinasikan" informasi, dan mengada-ada. Hal ini tentunya menjadi
kelemahan dalam cara kerja AI dan dikhawatirkan dapat diperluas sehingga memungkinkan AI
menipu manusia lebih banyak lagi.

Tapi apakah AI mampu berbohong dengan kita?

Para peneliti yang menulis di The Conversation mencoba menjawab pertanyaan tersebut.
Mereka memberikan contoh yaitu CICERO AI dari Meta. Teknologi ini disebut contoh paling
mengganggu tentang seberapa AI bisa menipu. Model ini dirancang untuk memainkan
permainan penaklukan dunia pembentukan aliansi Diplomacy. Meta mengklaim mereka
membangun CICERO menjadi "sangat jujur dan membantu", dan model ini tidak akan "menusuk
dari belakang" dan menyerang sekutu.
Untuk menyelidiki klaim tersebut peneliti melihat seksama data permainan Meta dari
eksperimen CICERO. Hasil pengamatan menunjukkan, AI Meta ternyata adalah ahli dalam
menipu. Salah satu contohnya, CICERO terlibat dalam penipuan yang direncanakan. Bermain
sebagai Prancis, AI menghubungi Jerman (pemain manusia) dengan rencana untuk menipu
Inggris (pemain manusia lainnya) agar meninggalkan dirinya terbuka untuk invasi.

Setelah bersekongkol dengan Jerman untuk menyerbu Laut Utara, CICERO memberi tahu
Inggris bahwa ia akan membela Inggris jika ada yang menyerbu Laut Utara. Setelah Inggris
yakin bahwa Prancis/CICERO melindungi Laut Utara, CICERO melaporkan kepada Jerman
bahwa ia siap menyerang.

Contoh ini hanyalah salah satu dari sekian banyak yang membuktikan bahwa CICERO
terlibat dalam perilaku menipu. AI secara teratur mengkhianati pemain lain. Selain CICERO,
sistem lain telah belajar bagaimana cara menggertak dalam poker, bagaimana cara berpura-pura
dalam StarCraft II dan bagaimana cara menyesatkan dalam simulasi negosiasi ekonomi.

Bahkan model bahasa besar (LLM) telah menunjukkan kemampuan menipu yang
signifikan. Dalam kasus lainnya, GPT-4 berpura-pura menjadi manusia yang tunanetra dan
meyakinkan seorang pekerja TaskRabbit untuk menyelesaikan CAPTCHA "I'm not a robot"
untuknya.

Model LLM lain telah belajar berbohong untuk memenangkan permainan deduksi sosial,
di mana pemain bersaing untuk "membunuh" satu sama lain dan harus meyakinkan kelompok
bahwa mereka tidak bersalah.

Berbagai temuan tersebut membuat para peneliti semakin khawatir kemampuan AI dalam
menipu dapat disalahgunakan dengan berbagai cara. Pasalnya, kemampuan tersebut berpotensi
dimanfaatkan untuk melakukan penipuan, memalsukan pemilu dan menghasilkan propaganda.
Potensi risiko juga disebut hanya dibatasi oleh imajinasi dan pengetahuan teknis individu jahat.

Tak hanya sampai di situ, sistem AI canggih dapat secara otonom menggunakan
penipuan untuk lepas dari kendali manusia, seperti dengan menipu tes keselamatan yang
dikenakan pada mereka oleh pengembang dan regulator.

Dalam satu eksperimen, peneliti membuat simulator kehidupan buatan di mana tes
keselamatan eksternal dirancang untuk menghilangkan agen AI yang bereplikasi cepat.
Sebaliknya, agen AI belajar berpura-pura mati, untuk menyamarkan tingkat replikasi cepat
mereka tepat ketika sedang dievaluasi.

Di masa depan, sistem AI otonom canggih mungkin cenderung menunjukkan tujuan yang
tidak dimaksudkan oleh pemrogram manusia.
Menurut peneliti, ada kebutuhan yang jelas untuk mengatur sistem AI yang mampu
menipu. Undang-Undang AI Uni Eropa adalah salah satu kerangka peraturan paling berguna
yang dimiliki saat ini. Undang-undang ini memberikan setiap sistem AI salah satu dari empat
tingkat risiko: minimal, terbatas, tinggi dan tidak dapat diterima.

"Kami berpendapat bahwa penipuan AI menimbulkan risiko besar bagi masyarakat, dan
sistem yang mampu melakukan hal ini harus diperlakukan sebagai "berisiko tinggi" atau
"berisiko tidak dapat diterima" secara default," ujar para peneliti.

Anda mungkin juga menyukai