Seorang peneliti telah diberi akses oleh perusahaan Meta ke dalam sebuah Artificial
Intelligence atau kecerdasan buatan (AI) yang sangat hebat. Hasilnya, peneliti menemukan
hal tak terduga tentang bagaimana AI akan berkembang di masa depan.
Temuan ini menjadi masalah penting yang membuat peneliti merasa khawatir, terutama bagi
para peneliti yang dulu pernah menjadi bagian tim integritas dan kebijakan kecerdasan buatan
di Meta.
Peneliti menjelaskan bagaimana kebocoran (pada AI) ini dapat mengancam keamanan
teknologi kecerdasan buatan serta apa yang dapat kita lakukan untuk menghadapinya.
Perusahaan Meta telah mengeluarkan pemberitahuan penghapusan agar kode yang bocor
tersebut menjadi offline, karena kode tersebut seharusnya hanya dapat diakses untuk
penggunaan penelitian, namun setelah kebocoran tersebut.
"Platform yang akan menang adalah yang terbuka," kata kepala ilmuwan AI
perusahaan, Yann LeCun, dikutip dari The Guardian. Menurut LeCun, hal ini menunjukkan
bahwa perusahaan Meta mungkin hanya menggunakan model sumber terbuka sebagai strategi
kompetitif. Meskipun Meta mengalami pelanggaran akibat kebocoran ini, perusahaan ini
tetap keluar sebagai pemenang. Sebab, hingga saat ini, peneliti dan pengembang independen
kini berlomba-lomba untuk memperbaiki atau membangun atas dasar LLaMA (Large
Language Model Meta AI - versi merek Meta dari model bahasa besar atau LLM, yang
menjadi dasar ChatGPT) dengan banyak dari mereka membagikan hasil kerja mereka secara
terbuka dengan dunia.
Hal ini bisa membuat Meta menjadi pemilik pusat platform AI yang dominan, mirip
dengan cara Google mengendalikan sistem operasi Android sumber terbuka yang digunakan
dan disesuaikan oleh produsen perangkat di seluruh dunia. Jika Meta berhasil mengamankan
posisi sentral ini dalam ekosistem AI, maka mereka akan memiliki pengaruh dalam
menentukan arah AI. Bahkan mereka bisa mengendalikan pengalaman pengguna individu,
dan mengatur batasan apa yang bisa dan tidak bisa dilakukan oleh perusahaan lain.
Seperti yang diketahui, Bard dari Google dan ChatGPT dari OpenAI dapat digunakan secara
gratis, tetapi mereka bukanlah AI yang open source.
Bard dan ChatGPT bergantung pada tim moderator konten dan analis ancaman yang
bekerja untuk mencegah platform mereka digunakan untuk tujuan yang merugikan.
Namun, ada kompetitor lain bernama LLaMA dari Meta dengan model bahasa besar yang
dapat diakses oleh siapa saja yang memiliki komputer yang cukup kuat. Sistem ini akan
menjadi saingan bagi ChatGPT karena LLaMA memberikan kesempatan bagi berbagai pihak,
termasuk yang tidak memiliki moral, untuk menggunakan kecerdasan buatan tanpa adanya
sistem keamanan yang memadai. Dengan kata lain, teknologi ini bisa digunakan oleh siapa
saja tanpa perlindungan yang memadai untuk mencegah penyalahgunaan atau tindakan tidak
etis.
Ancaman Terhadap Demokrasi dan Keamanan Keberadaan AI yang bebas, dapat
digunakan untuk membuat konten palsu yang lebih meyakinkan, memproduksi lebih banyak
konten palsu, atau bahkan mengubahnya menjadi "klasifikasi" yang memindai platform
media sosial untuk konten yang provokatif. Teknologi ini dapat digunakan untuk membuat
video palsu (deepfake) yang memperlihatkan kandidat politik mengatakan sesuatu yang
sebenarnya tidak pernah mereka ucapkan. Ini berarti, seseorang dapat dengan mudah
menciptakan video palsu yang membuat seorang politisi terlihat seperti berkata atau
melakukan sesuatu yang sebenarnya tidak pernah terjadi.
Selain itu, teknologi ini juga bisa dimanfaatkan untuk tujuan operasi pengaruh di
platform-platform yang dimiliki oleh Meta, seperti Facebook, Instagram, dan WhatsApp.
Tujuan ini bisa membuat seseorang bisa menggunakan teknologi untuk memengaruhi atau
memanipulasi informasi yang tersebar di platform-platform tersebut untuk tujuan politik atau
lainnya.
Dengan banyaknya ancaman yang ada, saat ini para ilmuwan dihadapkan dengan
perlombaan untuk mengembangkan teknologi kecerdasan buatan (AI) yang kurang aman atau
tidak terkendali. Dalam konteks ini, "keamanan AI yang rendah" merujuk pada
pengembangan AI tanpa memadai kontrol atau perlindungan terhadap penggunaan yang
berpotensi berbahaya atau merusak. Keamanan AI yang rendah dapat mencakup penggunaan
AI untuk tujuan yang tidak etis atau bahkan kriminal, seperti penyebaran informasi palsu,
peretasan, atau kegiatan subversif lainnya.
Maka dari itu, Gary Marcus, seorang ahli AI, dan Sam Altman, CEO OpenAI,
mendirikan sebuah badan pengaturan internasional yang fokus pada pengawasan dan regulasi
teknologi AI. Badan ini akan serupa dengan badan pengaturan yang mengawasi keamanan
nuklir, yang bertujuan untuk mencegah penyalahgunaan dan risiko yang terkait dengan
teknologi berbahaya.
Di sisi lain, Uni Eropa telah mengambil langkah lebih maju dalam mengatur teknologi
AI daripada Amerika Serikat dengan mengusulkan EU Artificial Intelligence Act. Namun,
sayangnya, implementasi penuh dari inisiatif ini mungkin akan memakan waktu cukup lama,
yaitu pada tahun 2025 atau lebih lambat lagi. Jadi, menurut ilmuwan untuk saat ini yang
diperlukan adalah undang-undang dan badan pengaturan yang efektif untuk mengawasi
teknologi AI. Mereka juga mengatakan, saat ini manusia modern hanya bisa bergantung pada
langkah sukarela CEO perusahaan teknologi untuk menghentikan penggunaan AI berbahaya.
Sisanya, para pembuat kebijakan harus bertindak cepat untuk melindungi masa depan dan
demokrasi dari risiko AI tidak terkendali.
Dunia Akui Potensi Serius AI, Simak Respons RI