Oerban.com – Elon Musk dan sekelompok pakar kecerdasan buatan dan eksekutif industri menyerukan jeda enam bulan dalam mengembangkan sistem yang lebih kuat daripada GPT-4 OpenAI yang baru diluncurkan, dalam sebuah surat terbuka yang mengutip potensi risiko bagi masyarakat dan kemanusiaan.
Awal bulan ini, OpenAI yang didukung Microsoft meluncurkan iterasi keempat dari program AI GPT (Generative Pre-trained Transformer), yang telah memukau pengguna dengan berbagai aplikasinya, mulai dari melibatkan pengguna dalam percakapan seperti manusia hingga membuat lagu dan meringkas dokumen panjang.
Surat itu, yang dikeluarkan oleh lembaga nirlaba Future of Life Institute dan ditandatangani oleh lebih dari 1.000 orang termasuk Musk, menyerukan jeda pada pengembangan AI tingkat lanjut sampai protokol keselamatan bersama untuk desain tersebut dikembangkan, diimplementasikan, dan diaudit oleh para ahli independen.
“Sistem AI yang kuat harus dikembangkan hanya setelah kami yakin bahwa efeknya akan positif dan risikonya akan dapat dikelola,” kata surat itu.
Surat itu merinci potensi risiko bagi masyarakat dan peradaban oleh sistem AI yang kompetitif bagi manusia dalam bentuk gangguan ekonomi dan politik, dan meminta pengembang untuk bekerja dengan pembuat kebijakan tentang tata kelola dan otoritas pengatur.
Penandatangan bersama termasuk CEO Stability AI Emad Mostaque, peneliti di Alphabet-owned (GOOGL. O) DeepMind, dan AI kelas berat Yoshua Bengio, sering disebut sebagai salah satu “bapak baptis AI”, dan Stuart Russell, pelopor penelitian di lapangan.
Menurut daftar transparansi Uni Eropa, Future of Life Institute terutama didanai oleh Musk Foundation, serta kelompok altruisme efektif yang berbasis di London, Founders Pledge, dan Silicon Valley Community Foundation.
Kekhawatiran itu muncul ketika pasukan polisi Uni Eropa Europol pada hari Senin bergabung dengan paduan suara masalah etika dan hukum atas AI canggih seperti ChatGPT, memperingatkan tentang potensi penyalahgunaan sistem dalam upaya phishing, disinformasi, dan kejahatan dunia maya.
Sementara itu, pemerintah Inggris meluncurkan proposal untuk kerangka peraturan yang “dapat disesuaikan” seputar AI.
Pendekatan pemerintah, yang diuraikan dalam makalah kebijakan yang diterbitkan pada hari Rabu, akan membagi tanggung jawab untuk mengatur kecerdasan buatan (AI) antara regulatornya untuk hak asasi manusia, kesehatan dan keselamatan, dan persaingan, daripada membuat badan baru yang didedikasikan untuk teknologi tersebut.
Transparansi
Musk, yang pembuat mobilnya Tesla (TSLA. O) menggunakan AI untuk sistem autopilot, telah vokal tentang keprihatinannya tentang AI.
Sejak dirilis tahun lalu, ChatGPT OpenAI telah mendorong saingan untuk mempercepat pengembangan model bahasa besar serupa, dan perusahaan untuk mengintegrasikan model AI generatif ke dalam produk mereka.
Pekan lalu, OpenAI mengumumkan telah bermitra dengan sekitar selusin perusahaan untuk membangun layanan mereka ke dalam chatbot-nya, memungkinkan pengguna ChatGPT untuk memesan bahan makanan melalui Instacart, atau memesan penerbangan melalui Expedia.
Sam Altman, kepala eksekutif di OpenAI belum menandatangani surat itu, kata juru bicara Future of Life kepada Reuters.
“Surat itu tidak sempurna, tetapi semangatnya benar: kita perlu memperlambat sampai kita lebih memahami konsekuensinya,” kata Gary Marcus, seorang profesor di Universitas New York yang menandatangani surat itu. ” Para pemain besar menjadi semakin tertutup tentang apa yang mereka lakukan, yang membuat masyarakat sulit untuk bertahan dari bahaya apa pun yang mungkin terwujud.”
Para kritikus menuduh penandatangan surat itu mempromosikan “hype AI”, dengan alasan bahwa klaim seputar potensi teknologi saat ini telah sangat dibesar-besarkan.
“Pernyataan semacam ini dimaksudkan untuk meningkatkan hype. Ini dimaksudkan untuk membuat orang khawatir,” Johanna Björklund, seorang peneliti AI dan profesor di Universitas Umeå. “Kurasa tidak perlu menarik rem tangan.”
Alih-alih menghentikan sementara penelitian, katanya, peneliti AI harus tunduk pada persyaratan transparansi yang lebih besar. “Jika Anda melakukan penelitian AI, Anda harus sangat transparan tentang bagaimana Anda melakukannya.”
Sumber: Reuters