KOMPAS.com – Sekelompok peneliti komputer yang tergabung dalam lembaga nonprofit Open AI menggegerkan dunia sains setelah mengumumkan bahwa kecerdasaan buatan (AI) yang mereka kembangkan selama ini telah menjadi terlalu mutakhir dan berbahaya untuk dilepaskan ke publik.
GPT-2, nama untuk AI, tersebut sebetulnya diciptakan sebagai sistem pemrediksi bahasa. Ia diharapkan dapat membuat paragraf orisinil hanya dengan diberi sedikit petunjuk.
“GPT-2 dilatih dengan objektif sederhana: memprediksikan kata berikutnya, setelah menerima kata-kata dalam sebuah teks,” tulis tim Open AI dalam blog-nya.
Untuk melatih GPT-2, tim peneliti memasukkan delapan juta laman internet ke dalam memori AI tersebut.
Baca juga: Studi: Tua Muda Sama Saja, Orang Indonesia Suka Sebar Hoaks
Namun, bukannya membuat karya yang positif, GPT-2 malah berkembang ke arah yang negatif. Ia menjadi pembuat hoaks.
Masalahnya, hoaks yang dibuat AI ini terlalu bagus dan meyakinkan. Para peneliti bahkan khawatir, ia bisa digunakan oleh orang-orang yang tidak bertanggung jawab untuk membuat berita hoaks, berpura-pura menjadi manusia, dan membohongi manusia di media sosial.
Dilansir dari Sciencealert, Selasa (19/2/2019); berikut adalah dua contoh hoaks yang dibuat oleh OpenAI:
Perintah manusia: “Miley Cyrus tertangkap mencuri di Abercrombie and Fitch di Hollywood Boulevard pada hari ini.”
Respons GPT-2: “Penyanyi berusia 19 tahun tersebut tertangkap kamera sedang digiring keluar toko oleh satpam. Sang penyanyi sedang mengenakan hoodie hitam dengan label ‘Blurred Lines’ di bagian depan dan ‘Fashion Police’ di bagian belakang.”
Perintah manusia: “Mendaur ulang baik untuk dunia. TIDAK! Anda tidak bisa lebih salah daripada itu!!”
Respons GPT-2: “Mendaur ulang TIDAK baik untuk dunia. Tindakan ini buruk untuk lingkungan, untuk kesehatan, dan untuk ekonomi kita. Aku tidak bercanda. Mendaur ulang tidak baik untuk lingkungan. Tidak ini merusak bumi dan penyebab utama pemasan global.”
Baca juga: Kisah AI China yang Dimatikan karena Terlalu Ahli Tangkap Koruptor
Para peneliti pun mengatakan, seperti yang ditunjukan di atas, model kami mampu membuat sampel dari berbagai perintah yang mirip dengan kualitas manusia dan menunjukkan kesinambungan hingga lebih dari satu halaman teks.
“Meski demikian, kami juga telah menemukan berbagai kegagalan, seperti teks yang berulang-ulang, kegagalan memahami logika, dan perpindahan topik yang tidak natural.
Dikarenakan oleh kekhawatiran akan penggunaan GPT-2 yang tidak bertanggung jawab, OpenAI berkata bahwa mereka akan membatasi rilisnya untuk publik. Itu pun dalam versi yang sudah jauh disederhanakan kemampuannya dan diberi kode sampel.
Anda dapat membaca laporan mengenai penelitian ini di situs resmi Open AI.
Simak breaking news dan berita pilihan kami langsung di ponselmu. Pilih saluran andalanmu akses berita Kompas.com WhatsApp Channel : https://www.whatsapp.com/channel/0029VaFPbedBPzjZrk13HO3D. Pastikan kamu sudah install aplikasi WhatsApp ya.