Anda di halaman 1dari 4

Ilmuwan Ungkap Bahaya AI di Masa Depan, Ada Banyak Ancaman

Seorang peneliti telah diberi akses oleh perusahaan Meta ke dalam sebuah Artificial
Intelligence atau kecerdasan buatan (AI) yang sangat hebat. Hasilnya, peneliti menemukan
hal tak terduga tentang bagaimana AI akan berkembang di masa depan.
Temuan ini menjadi masalah penting yang membuat peneliti merasa khawatir, terutama bagi
para peneliti yang dulu pernah menjadi bagian tim integritas dan kebijakan kecerdasan buatan
di Meta.
Peneliti menjelaskan bagaimana kebocoran (pada AI) ini dapat mengancam keamanan
teknologi kecerdasan buatan serta apa yang dapat kita lakukan untuk menghadapinya.
Perusahaan Meta telah mengeluarkan pemberitahuan penghapusan agar kode yang bocor
tersebut menjadi offline, karena kode tersebut seharusnya hanya dapat diakses untuk
penggunaan penelitian, namun setelah kebocoran tersebut.
"Platform yang akan menang adalah yang terbuka," kata kepala ilmuwan AI
perusahaan, Yann LeCun, dikutip dari The Guardian. Menurut LeCun, hal ini menunjukkan
bahwa perusahaan Meta mungkin hanya menggunakan model sumber terbuka sebagai strategi
kompetitif. Meskipun Meta mengalami pelanggaran akibat kebocoran ini, perusahaan ini
tetap keluar sebagai pemenang. Sebab, hingga saat ini, peneliti dan pengembang independen
kini berlomba-lomba untuk memperbaiki atau membangun atas dasar LLaMA (Large
Language Model Meta AI - versi merek Meta dari model bahasa besar atau LLM, yang
menjadi dasar ChatGPT) dengan banyak dari mereka membagikan hasil kerja mereka secara
terbuka dengan dunia.
Hal ini bisa membuat Meta menjadi pemilik pusat platform AI yang dominan, mirip
dengan cara Google mengendalikan sistem operasi Android sumber terbuka yang digunakan
dan disesuaikan oleh produsen perangkat di seluruh dunia. Jika Meta berhasil mengamankan
posisi sentral ini dalam ekosistem AI, maka mereka akan memiliki pengaruh dalam
menentukan arah AI. Bahkan mereka bisa mengendalikan pengalaman pengguna individu,
dan mengatur batasan apa yang bisa dan tidak bisa dilakukan oleh perusahaan lain.
Seperti yang diketahui, Bard dari Google dan ChatGPT dari OpenAI dapat digunakan secara
gratis, tetapi mereka bukanlah AI yang open source.
Bard dan ChatGPT bergantung pada tim moderator konten dan analis ancaman yang
bekerja untuk mencegah platform mereka digunakan untuk tujuan yang merugikan.
Namun, ada kompetitor lain bernama LLaMA dari Meta dengan model bahasa besar yang
dapat diakses oleh siapa saja yang memiliki komputer yang cukup kuat. Sistem ini akan
menjadi saingan bagi ChatGPT karena LLaMA memberikan kesempatan bagi berbagai pihak,
termasuk yang tidak memiliki moral, untuk menggunakan kecerdasan buatan tanpa adanya
sistem keamanan yang memadai. Dengan kata lain, teknologi ini bisa digunakan oleh siapa
saja tanpa perlindungan yang memadai untuk mencegah penyalahgunaan atau tindakan tidak
etis.
Ancaman Terhadap Demokrasi dan Keamanan Keberadaan AI yang bebas, dapat
digunakan untuk membuat konten palsu yang lebih meyakinkan, memproduksi lebih banyak
konten palsu, atau bahkan mengubahnya menjadi "klasifikasi" yang memindai platform
media sosial untuk konten yang provokatif. Teknologi ini dapat digunakan untuk membuat
video palsu (deepfake) yang memperlihatkan kandidat politik mengatakan sesuatu yang
sebenarnya tidak pernah mereka ucapkan. Ini berarti, seseorang dapat dengan mudah
menciptakan video palsu yang membuat seorang politisi terlihat seperti berkata atau
melakukan sesuatu yang sebenarnya tidak pernah terjadi.
Selain itu, teknologi ini juga bisa dimanfaatkan untuk tujuan operasi pengaruh di
platform-platform yang dimiliki oleh Meta, seperti Facebook, Instagram, dan WhatsApp.
Tujuan ini bisa membuat seseorang bisa menggunakan teknologi untuk memengaruhi atau
memanipulasi informasi yang tersebar di platform-platform tersebut untuk tujuan politik atau
lainnya.
Dengan banyaknya ancaman yang ada, saat ini para ilmuwan dihadapkan dengan
perlombaan untuk mengembangkan teknologi kecerdasan buatan (AI) yang kurang aman atau
tidak terkendali. Dalam konteks ini, "keamanan AI yang rendah" merujuk pada
pengembangan AI tanpa memadai kontrol atau perlindungan terhadap penggunaan yang
berpotensi berbahaya atau merusak. Keamanan AI yang rendah dapat mencakup penggunaan
AI untuk tujuan yang tidak etis atau bahkan kriminal, seperti penyebaran informasi palsu,
peretasan, atau kegiatan subversif lainnya.
Maka dari itu, Gary Marcus, seorang ahli AI, dan Sam Altman, CEO OpenAI,
mendirikan sebuah badan pengaturan internasional yang fokus pada pengawasan dan regulasi
teknologi AI. Badan ini akan serupa dengan badan pengaturan yang mengawasi keamanan
nuklir, yang bertujuan untuk mencegah penyalahgunaan dan risiko yang terkait dengan
teknologi berbahaya.
Di sisi lain, Uni Eropa telah mengambil langkah lebih maju dalam mengatur teknologi
AI daripada Amerika Serikat dengan mengusulkan EU Artificial Intelligence Act. Namun,
sayangnya, implementasi penuh dari inisiatif ini mungkin akan memakan waktu cukup lama,
yaitu pada tahun 2025 atau lebih lambat lagi. Jadi, menurut ilmuwan untuk saat ini yang
diperlukan adalah undang-undang dan badan pengaturan yang efektif untuk mengawasi
teknologi AI. Mereka juga mengatakan, saat ini manusia modern hanya bisa bergantung pada
langkah sukarela CEO perusahaan teknologi untuk menghentikan penggunaan AI berbahaya.
Sisanya, para pembuat kebijakan harus bertindak cepat untuk melindungi masa depan dan
demokrasi dari risiko AI tidak terkendali.
Dunia Akui Potensi Serius AI, Simak Respons RI

Pengembangan kecerdasan buatan (AI) diakui memberi ancaman bencana bagi


manusia meski masih bisa diarahkan agar memberi efek ekonomi. Hal itu terungkap
dalam AI Safety Summit 2023 alias Konferensi Tingkat Tinggi (KTT) Keselamatan AI yang
dibuka di Bletchley Park, Inggris, Rabu (1/11), yang juga melibatkan AS, Uni Eropa, Inggris,
dan China. "Ada potensi bahaya yang serius, bahkan bencana, baik disengaja atau tidak, yang
berasal dari kemampuan paling signifikan dari model AI ini," demikian bunyi Deklarasi
Bletchley, dikutip dari The Guardian.
Dalam ajang yang sama, CEO Tesla Elon Musk menggambarkan AI sebagai "salah
satu ancaman terbesar bagi umat manusia." "Maksud saya, untuk pertama kalinya, kita
menghadapi situasi ketika ada sesuatu yang jauh lebih pintar daripada manusia terpintar,"
tutur Musk, yang juga salah satu pendiri perusahaan OpenAI, pengembang ChatGPT. "Jadi,
tahukah Anda, kita tidak lebih kuat atau lebih cepat dari makhluk lain, tapi kita lebih cerdas.
Dan di sinilah kita, untuk pertama kalinya dalam sejarah manusia, dengan sesuatu yang jauh
lebih cerdas dari kita."
Dalam komentarnya di sela-sela KTT, dia mengakui "tidak jelas kita bisa
mengendalikan hal seperti itu." Namun, tukasnya, "kita bisa bercita-cita untuk
mengarahkannya ke arah yang bermanfaat bagi kemanusiaan."
Mustafa Suleyman, salah satu pendiri DeepMind, perusahaan AI Inggris yang
diakuisisi oleh Google, meminta para pihak mempertimbangkan jeda lima tahun dalam
pengembangan teknologi ini. "Saya tidak mengesampingkan hal itu (bahaya AI). Dan saya
pikir dalam lima tahun ke depan, kita harus mempertimbangkan pertanyaan itu dengan sangat
serius," ucapnya. Meski demikian, Suleyman mengatakan model AI saat ini, seperti yang
mendukung ChatGPT, tidak terbukti menimbulkan ancaman serius. "Saya rasa saat ini tidak
ada bukti bahwa model [AI] terdepan GPT-4, menimbulkan dampak bencana yang
signifikan," katanya.
Wakil Menteri Komunikasi dan Informatika Nezar Patria, yang turut hadir di
KTT tersebut, menyatakan satu-satunya cara untuk mempersiapkan diri menghadapi masa
depan AI adalah dengan memahami dan memitigasi risiko. "Indonesia mengusulkan tiga 'P'
sebagai fondasi tindakan kolektif dan kolaborasi kita di masa depan, yaitu Policy (kebijakan),
Platform (aplikasi) dan People (sumber daya manusia)," ujarnya, di London, Inggris, Kamis
(2/11), dikutip dari siaran pers Kominfo. "Kebijakan kita harus mencerminkan proyeksi masa
depan kita tentang penggunaan AI yang aman, terjamin, dan kuat," imbuh dia.
Meski begitu, pemetaan soal pengembangan sekaligus pengamanan terhadap bahaya
AI tak bisa cuma dilakukan Pemerintah. Berbagai korporasi, swasta maupun BUMN, terlacak
sudah menggunakannya dalam berbagai layanan.
Nasib Manusia di Ujung Tanduk, PBB Turun Tangan Teriak AI
Risiko yang ditimbulkan oleh teknologi kecerdasan buatan (Artificial Intelligence/AI)
kian diagungkan dalam banyak kesempatan. Perserikatan Bangsa-Bangsa (PBB) sampai turun
tangan menyoroti risiko tersebut.
Dalam pidatonya di gelaran World Economic Forum 2024 Davos Swiss, Sekretaris
Jenderal Antonia Guterres mengatakan AI berdampak mulai dari hak asasi manusia, privasi
dan masyarakat itu sendiri. Dia juga mendorong semua pihak untuk bisa saling bekerja sama
menyajikan AI yang 'terjalin dan adaptif'.
"Kita butuh pemerintah untuk bekerja sama dengan perusahaan teknologi dalam
kerangka manajemen risiko pengembangan AI sekarang dan memonitor serta memitigasi
dampak buruk di masa depan," kata Guterres, dikutip dari Asia Nikkei, Senin (22/1/2024).
Dia menyarankan untuk tidak lagi memperdalam kesenjangan digital yang ada. Namun
sebaiknya semua pihak bisa menjembatani masalah tersebut.
Wilayah pertama yang mengesahkan aturan soal AI adalah Uni Eropa pada Desember
lalu. Sementara negara lain tengah menjajaki regulasi dan tata kelola seputar AI. Dalam
sebuah sesi panel di Davos, Wakil Presiden Komisi Eropa Vera Jourova mengakui aturan
jauh lebih lambat daripada dunia teknologi. Meski ada penyempurnaan, dia meyakini UU
soal AI akan segera diberlakukan.
"Kami tiba-tiba melihat AI generatif pada model dasar ChatGPT. Hal ini membuat
kami merancang dengan legislator lokal sebuah bab baru UU AI. Kami mencoba bereaksi
pada kenyataan baru, hasilnya sudah ada. Penyempurnaan masih berjalan, namun saya
percaya aturan AI akan segera berlaku," jelasnya.
Ada beragam pendekatan untuk mengatur AI. Wakil ketua dan presiden Microsoft
Brad Smith mengatakan tidak semua aturan dibuat untuk AI, namun bisa berlaku bagi
teknologi tersebut. "Ada berbagai macam aturan yang berlaku di seluruh dunia tidak selalu
dibuat untuk AI, namun bisa diberlakukan untuk AI. Misalnya keamanan siber, keselamatan
digital, perlindungan anak, perlindungan konsumen dan aturan persaingan," kata Smith.
Di Indonesia, pemerintah telah mengeluarkan surat edaran terkait teknologi canggih
itu. Surat nomor 9 tahun 2023 tentang etika kecerdasan buatan diteken oleh Menteri Kominfo
Budi Arie Setiadi. SE ditunjukkan bagi sejumlah pihak. Mulai dari pelaku usaha, aktivitas
pemrograman berbasis kecerdasan artificial, dan penyelenggaraan sistem elektronik lingkup
publik dan privat.

Anda mungkin juga menyukai