Ketakutan! Elon Musk & Ribuan CEO Memohon ke Google-Microsoft
Sejumlah peneliti AI terkenal dan Elon Musk menandatangani surat terbuka yang meminta laboratorium AI di seluruh dunia untuk menghentikan pengembangan sistem AI skala besar.
Petisi ini lahir karena adanya kekhawatiran atas risiko besar bagi masyarakat dan kemanusiaan yang mereka klaim akan tercipta dari teknologi kecerdasan buatan.
Surat tersebut diterbitkan oleh organisasi nirlaba Future of Life Institute. https://panenkas138.store/ Mereka mencatat bahwa saat ini sedang ada perlombaan di luar kendali antara laboratorium AI untuk mengembangkan dan menerapkan sistem pembelajaran mesin yang tidak seorang pun, bahkan penciptanya, dapat memahami, memprediksi, atau mengontrolnya.
“Kami menyerukan kepada semua laboratorium AI untuk segera menghentikan pelatihan sistem AI yang lebih kuat dari GPT-4 setidaknya selama 6 bulan,” tulis petisi tersebut dikutip dari The Verge, Kamis (30/3/2023).
“Oleh karena itu, kami menghimbau semua laboratorium AI untuk segera menghentikan sementara setidaknya 6 bulan pelatihan sistem AI yang lebih kuat dari GPT-4.”
“Jeda ini harus bersifat publik dan dapat diverifikasi, serta mencakup semua aktor kunci. Jika jeda seperti itu tidak dapat diberlakukan dengan cepat, pemerintah harus turun tangan dan melembagakan moratorium.”
Petisi tersebut sudah ditandatangani oleh banyak orang, termasuk penulis Yuval Noah Harari, salah satu pendiri Apple Steve Wozniak, salah satu pendiri Skype Jaan Tallinn, politisi Andrew Yang, dan sejumlah peneliti dan CEO AI terkenal, termasuk Stuart Russell, Yoshua Bengio, Gary Marcus, dan Emad Mostaque.
Surat itu sepertinya tidak akan berpengaruh pada iklim alam penelitian AI yang telah membuat perusahaan teknologi seperti Google dan Microsoft terburu-buru untuk menerapkan produk baru. Penerapan produk AI tersebut seringkali mengesampingkan kekhawatiran yang sebelumnya diakui atas keselamatan dan etika.
Seperti disebutkan dalam surat tersebut, bahkan OpenAI sendiri telah menyatakan potensi perlunya peninjauan independen terhadap sistem AI di masa depan untuk memastikannya memenuhi standar keselamatan.
“Laboratorium AI dan pakar independen harus menggunakan jeda ini untuk bersama-sama mengembangkan dan mengimplementasikan seperangkat protokol keselamatan bersama untuk desain dan pengembangan AI tingkat lanjut yang diaudit secara ketat dan diawasi oleh pakar luar yang independen,” tulis mereka.
“Protokol ini harus memastikan bahwa sistem yang mengikutinya aman.”