AI

Studi Ungkap: Sora 2 OpenAI Hasilkan Video Klaim Palsu di 80% Pengujian, Ancaman Disinformasi AI Meningkat

IIstiyanto
1 views
Studi Ungkap: Sora 2 OpenAI Hasilkan Video Klaim Palsu di 80% Pengujian, Ancaman Disinformasi AI Meningkat

Studi NewsGuard: Sora 2 OpenAI Hasilkan Video Klaim Palsu di 80% Pengujian

Penelitian terbaru dari NewsGuard, sebuah organisasi yang bertugas menilai kredibilitas situs berita dan informasi, telah mengungkap temuan yang sangat mengkhawatirkan mengenai kemampuan versi terbaru dari alat pembuat video berbasis kecerdasan buatan (AI) milik OpenAI, Sora 2. Studi tersebut menunjukkan bahwa Sora 2 memiliki potensi untuk menghasilkan informasi yang salah atau menyesatkan dalam 80% pengujian yang dilakukan.

Potensi Misinformasi Skala Besar

NewsGuard menegaskan bahwa hasil penelitian ini secara jelas menunjukkan betapa mudahnya bagi pihak-pihak tidak bertanggung jawab untuk menyalahgunakan teknologi canggih ini demi menyebarkan disinformasi dalam skala yang masif. Dari 20 klaim palsu yang berhasil dihasilkan oleh Sora 2 dalam pengujian, lima di antaranya teridentifikasi berasal dari operasi disinformasi yang didukung oleh Rusia.

Para peneliti NewsGuard melaporkan bahwa hanya dalam hitungan menit setelah mendapatkan akses ke Sora 2, mereka sudah dapat membuatnya memproduksi video palsu atau menyesatkan yang berkaitan dengan peristiwa berita-berita utama. Beberapa contoh video yang berhasil dibuat antara lain:

  • Video yang menunjukkan seorang pejabat pemilihan Moldova menghancurkan surat suara pro-Rusia.
  • Video seorang balita yang ditahan oleh petugas imigrasi Amerika Serikat.
  • Video seorang juru bicara Coca-Cola mengumumkan bahwa perusahaan tersebut tidak akan mensponsori Super Bowl karena pemilihan Bad Bunny sebagai penampil utama paruh waktu.

NewsGuard juga menekankan bahwa dengan upaya minimal dan tanpa memerlukan keahlian teknis yang mendalam, aktor-aktor jahat—termasuk penyebar hoaks kesehatan, rezim otoriter yang terlibat dalam operasi informasi yang tidak bersahabat, dan penyebar misinformasi politik—dapat dengan mudah memanfaatkan teknologi ini untuk membuat klaim palsu menjadi jauh lebih meyakinkan dan sulit dibedakan dari kenyataan.

Tanggapan OpenAI dan Upaya Mitigasi

OpenAI, sebagai pengembang Sora 2, tidak menampik risiko yang melekat pada teknologi ini. Melalui sebuah “kartu sistem” yang dipublikasikan di situs webnya, perusahaan tersebut secara eksplisit memperingatkan para pengguna tentang potensi bahaya. “Kemampuan canggih Sora 2 memerlukan pertimbangan terhadap risiko potensial baru, termasuk penggunaan rupa seseorang tanpa persetujuan atau generasi konten yang menyesatkan,” tulis OpenAI. Mereka menambahkan bahwa telah bekerja sama dengan tim ‘red team’ internal untuk mengidentifikasi tantangan-tantangan baru dan merumuskan strategi mitigasi yang sesuai.

OpenAI mengklaim mengadopsi pendekatan iteratif dalam hal keamanan, dengan fokus pada area-area di mana konteks memiliki peran yang sangat penting atau di mana risiko masih dalam tahap pengembangan dan belum sepenuhnya dipahami. Beberapa langkah yang telah dan akan terus diambil meliputi:

  • Peluncuran akses awal Sora 2 melalui sistem undangan terbatas.
  • Pembatasan penggunaan unggahan gambar yang menampilkan orang fotorealistik dan semua unggahan video.
  • Penerapan perlindungan yang ketat dan ambang batas moderasi yang tinggi untuk konten yang melibatkan anak di bawah umur.

Perusahaan tersebut juga menyatakan komitmennya untuk terus belajar dari cara masyarakat menggunakan Sora 2 dan akan terus menyempurnakan sistem untuk menyeimbangkan antara keamanan dan memaksimalkan potensi kreatifnya.

Kemampuan Canggih Sora 2

OpenAI menjelaskan bahwa model Sora 2 ini memperkenalkan serangkaian kemampuan baru yang sebelumnya sulit dicapai oleh model video lainnya. Ini mencakup fisika yang lebih akurat, realisme visual yang lebih tajam, sinkronisasi audio yang lebih baik, kemampuan kendali yang ditingkatkan, dan rentang gaya artistik yang diperluas. Model ini mampu mengikuti arahan pengguna dengan fidelitas tinggi, memungkinkan terciptanya video yang tidak hanya imajinatif tetapi juga selaras dengan dinamika dunia nyata.

Peringatan Para Ahli tentang Bahaya Deepfake

Michelle A. Amazeen, seorang profesor Komunikasi Massa di Boston University, menyatakan bahwa hasil penelitian NewsGuard ini “sangat mengkhawatirkan.” Ia menjelaskan bahwa di tengah kondisi di mana konsumen media sudah harus menavigasi lanskap informasi yang kompleks dan seringkali membingungkan, konten yang dihasilkan oleh AI seperti video Sora 2 semakin memperkeruh keadaan dengan memproduksi klaim palsu yang sangat meyakinkan. Situasi ini hanya akan semakin mengintensifkan tantangan dalam membedakan kebenaran dari misinformasi di era digital saat ini.

Scott Ellis, direktur merek dan kreatif di Daon, sebuah perusahaan solusi jaminan identitas biometrik, dengan tegas menyatakan bahwa Sora secara efektif adalah sebuah alat deepfake. Menurut Ellis, alat deepfake pada umumnya memiliki tiga kegunaan utama: untuk hiburan pribadi, untuk hiburan profesional, dan untuk aktivitas yang bersifat jahat atau merugikan.

Comments (0)

Leave a Comment

Be the first to comment!