Ahli dan CEO Teknologi Sebut AI Sama Berbahaya dengan Nuklir

Yusuf Tirtayasa
Kamis 15 Juni 2023, 20:15 WIB
Ilustrasi Artificial Intelligence - AI (Sumber : Freepik)

Ilustrasi Artificial Intelligence - AI (Sumber : Freepik)

LABVIRAL.COM - Maraknya teknologi kecerdasan buatan (AI) mengundang perhatian banyak pihak. Terlebih, terhadap dampak buruk yang akan terjadi di masa depan akibat teknologi ini.

Ini tentunya membuat para ahli dan Chief Executive Organization (CEO) memberikan peringatan terkait bahaya AI. Hal itu terungkap dalam pernyataan terbuka 'Statement on AI Risk' yang digagas oleh organisasi nirlaba Center for AI Safety yang berbasis di San Francisco, AS.

Pendandatangannya mencapai lebih dari 100 tokoh yang merupakan ilmuwan, termasuk Geoffrey Hinton dan Yoshua Bengio yang memenangkan Turing Award 2018 atas karya mereka di bidang kecerdasan buatan.

Mengutip dari The Verge, para pimponan perusahaan teknologi, termasuk CEO Google DeepMind Demis Hassabis dan XEO OpenAI hang merupakan pemilik chatbot ChatGPT, Sam Altman.

"Mitigasi risiko kepunahan dari AI harus menjadi prioritas global bersama dengan risiko skala masyarakat lainnya, seperti pandemi dan perang nuklir," demikian tertulis pada pernyataan terbuka itu yang dikutip, Rabu (31/5/2023).

Pernyataan tersebut merupakan intervensi terbaru dalam perdebatan yang rumit dan kontroversial mengenai keamanan AI.

Awal tahun ini, sebuah surat terbuka sejenis yang ditandatangani oleh beberapa tokoh yang kurang lebih sama dengan yang mendukung peringatan terbaru ini menyerukan "jeda" selama enam bulan dalam pengembangan AI.

Baca Juga: ChatGPT Lebih Seperti 'Kecerdasan Alien' Ketimbang Otak Manusia?

Namun, seruan tersebut dikritik dalam berbagai tingkatan. Beberapa ahli menganggap surat tersebut melebih-lebihkan risiko yang ditimbulkan oleh AI, sementara yang lain setuju dengan risiko tersebut, tetapi tidak dengan solusi yang disarankan dalam surat tersebut.

Direktur eksekutif Center for AI Safety Dan Hendrycks mengatakan pernyataan terbaru yang dilontarkan secara singkat ini dimaksudkan untuk menghindari ketidaksepakatan tersebut.

"Kami tidak ingin mendorong menu yang sangat besar dengan 30 intervensi potensial. Ketika hal itu terjadi, maka akan melemahkan pesan yang ingin disampaikan," kata Hendrycks.

Hendrycks menggambarkan pesan tersebut sebagai "coming-out" bagi para tokoh di industri yang khawatir akan risiko AI.

"Ada kesalahpahaman yang sangat umum, bahkan di komunitas AI, bahwa hanya ada segelintir orang yang khawatir pada hal tersebut. Namun, pada kenyataannya, banyak orang yang secara pribadi mengungkapkan kekhawatirannya tentang hal-hal ini," ujar Hendrycks.

Kontroversi soal AI sendiri sudah tidak asing, tetapi pembicaraan soal detailnya sering kali tak berkesudahan. Namun intinya, ada hipotetis di mana sistem AI dengan cepat meningkatkan kemampuannya, dan tidak lagi berfungsi dengan aman.

Banyak ahli merujuk pada peningkatan yang cepat dalam sistem seperti model bahasa yang besar sebagai bukti proyeksi peningkatan kecerdasan di masa depan.

Mereka mengatakan setelah sistem AI mencapai tingkat kecanggihan tertentu, mungkin akan menjadi tidak mungkin untuk mengendalikan tindakan mereka.

Namun, beberapa pihak meragukan prediksi ini. Mereka menunjukkan ketidakmampuan sistem AI untuk menangani tugas-tugas yang relatif biasa seperti, misalnya, mengemudikan mobil.

Meski sudah bertahun-tahun dan miliaran investasi di bidang penelitian ini, mobil yang sepenuhnya bisa menyetir sendiri masih jauh dari kenyataan.

Menurut mereka, jika AI tidak dapat menangani tantangan yang satu ini, maka peluang yang dimiliki teknologi ini untuk menyamai setiap pencapaian manusia di tahun-tahun mendatang cukup kecil.

Meski demikian, baik pendukung risiko AI maupun yang skeptis setuju jika sistem AI tidak ditingkatkan maka akan menghadirkan sejumlah ancaman di masa sekarang.

Contohnya, penggunaan untuk pengawasan massal di dunia maya, hingga kemudahan penciptaan misinformasi dan disinformasi.***

Follow Berita LABVIRAL di Google News
Halaman :
Berita Terkait Berita Terkini