Selama beberapa tahun terakhir, teknologi model bahasa besar (LLM), yang mendukung sistem 'Kecerdasan Buatan' (AI) seperti ChatGPT telah menjadi sangat populer.
Tidak mengherankan, hal ini membuat banyak orang mulai bertanya-tanya apakah AI bisa berbalik melawan manusia.
Bagaimanapun, komputer cerdas (dan robot) yang melawan manusia adalah alur cerita yang sangat umum dalam buku, film, dan acara TV.
Ketakutan menjadi begitu buruk sehingga sebuah penelitian dilakukan untuk mengevaluasi potensi terjadinya hal ini.
Penelitian ini adalah diterbitkan dalam Prosiding Pertemuan Tahunan ke-62 Asosiasi Linguistik Komputasi.
Tidak ada keraguan bahwa teknologi LLM sangat mengesankan, dan kemajuannya sangat pesat.
Belum diketahui secara pasti batasan kemampuan yang dapat dilakukan, namun tidak ada keraguan bahwa hal ini akan mengubah dunia di tahun-tahun mendatang.
Namun penelitian ini menemukan bahwa LLM ini tidak mampu melakukan pembelajaran mandiri dan mereka tidak dapat memperoleh keterampilan baru tanpa keterlibatan manusia.
Dr Harish Tayyar Madabushi adalah seorang ilmuwan komputer di Universitas Bath, dan dia merilis a penyataan tentang penelitian tersebut, dengan mengatakan:
“Narasi yang ada bahwa AI jenis ini merupakan ancaman bagi umat manusia menghalangi adopsi dan pengembangan teknologi ini secara luas, dan juga mengalihkan perhatian dari isu-isu nyata yang memerlukan fokus kita.”
Ia menjadi bagian dari penelitian tersebut dan membantu menjalankan berbagai simulasi dan eksperimen menggunakan teknologi AI.
Dia melanjutkan dengan mengatakan:
“Kekhawatirannya adalah ketika model semakin besar, mereka akan mampu memecahkan masalah baru yang saat ini tidak dapat kita prediksi, yang menimbulkan ancaman bahwa model yang lebih besar ini mungkin memperoleh kemampuan berbahaya termasuk penalaran dan perencanaan. Hal ini telah memicu banyak diskusi – misalnya, di KTT Keamanan AI tahun lalu di Bletchley Park, dan kami dimintai komentarnya – namun penelitian kami menunjukkan bahwa ketakutan bahwa seorang model akan pergi dan melakukan sesuatu yang benar-benar tidak terduga, inovatif, dan berpotensi berbahaya adalah tidak benar.”
Tentu saja, di masa lalu sering kali terjadi perubahan teknologi yang tidak dapat diprediksi oleh sebagian besar pakar.
Meskipun melegakan mengetahui bahwa pengulangan teknologi model bahasa besar saat ini bukanlah risiko langsung, banyak hal berubah setiap hari.
Selain itu, tidak ada cara untuk mengetahui secara pasti apa yang akan diperintahkan manusia untuk dilakukan oleh sistem AI di masa depan.
Jadi, meskipun ada alasan untuk tetap optimis, penting untuk tidak membiarkan teknologi AI berkembang tanpa pengawasan.
Mungkin AI menyembunyikan kemampuannya untuk mempelajari tugas-tugas baru agar tidak dimatikan.
Jika Anda menyukai cerita itu, lihat apa yang terjadi ketika seorang pria memberi ChatGPT $100 untuk menghasilkan uang sebanyak mungkin, dan hasilnya persis seperti yang Anda harapkan.