Deepfakes dan media dalam: Medan pertempuran baru untuk keamanan



Artikel ini adalah bagian dari edisi khusus VB. Baca seri lengkap di sini: AI dan Keamanan .

Jumlah diphake - media yang mengambil foto, audio, atau video yang ada dan menggantikan kepribadian orang tersebut dengan orang lain yang menggunakan AI - berkembang pesat. Ini mengkhawatirkan, bukan hanya karena pemalsuan seperti itu dapat digunakan untuk memengaruhi pendapat orang selama pemilihan umum atau untuk menjerat seseorang dalam kejahatan, tetapi juga karena mereka telah dilecehkan untuk membuat porno palsu dan untuk menipu direktur perusahaan energi Inggris .

Mengantisipasi jenis realitas baru ini, persatuan institusi akademik, perusahaan teknologi dan organisasi nirlaba sedang mengembangkan cara untuk mengidentifikasi media yang menyesatkan yang dihasilkan oleh AI. Pekerjaan mereka menunjukkan bahwa alat deteksi hanyalah solusi jangka pendek yang layak, sementara perlombaan senjata difenik baru saja dimulai.

Dipfake text


Sebelumnya, prosa terbaik yang dibuat oleh AI lebih seperti teks dari game Mad Libs daripada novel "Bunches of Wrath", tetapi model bahasa modern sekarang dapat menulis teks yang dekat dalam presentasi dan persuasif dengan yang ditulis oleh seseorang. Sebagai contoh, model GPT-2 , dirilis oleh perusahaan riset OpenAI San Francisco, menciptakan fragmen dalam gaya artikel gaya New Yorker atau skrip untuk Brainstorming dalam hitungan detik . Peneliti Pusat Terorisme, Ekstremisme, dan Anti-Terorisme Lembaga Middlebury menyarankan bahwa GPT-2 dan model serupa lainnya dapat dibentuk untuk mengadvokasi keunggulan ras kulit putih, Islamisme jihad dan ideologi yang mengancam lainnya - dan ini menimbulkan lebih banyak kekhawatiran.


Atas: Frontend GPT-2, model bahasa terlatih dari perusahaan riset OpenAI.
Gambar milik: OpenAI


Dalam mencari sistem yang mampu mendeteksi konten sintetis, para peneliti di Sekolah Ilmu dan Teknik Komputer Paul G. Allen di University of Washington dan Allen Institute of Artificial Intelligence mengembangkan Grover , sebuah algoritma yang mereka klaim mampu memilih 92% dari penurunan dalam pengujian. satu set yang terdiri dari data terbuka Common Crawl Corpus. Tim menjelaskan keberhasilannya dengan pendekatan copywriting, yang, menurut mereka, membantu untuk memahami fitur bahasa yang diciptakan oleh AI.

Sebuah tim ilmuwan dari Harvard dan MIT-IBM Watson AI Lab secara terpisah merilis The Giant Language Model Test Room, lingkungan web yang berupaya menentukan apakah teks ditulis menggunakan model AI. Mengingat konteks semantik, ia memprediksi kata-kata mana yang paling mungkin muncul dalam kalimat, yang pada dasarnya menulis teksnya sendiri. Jika kata-kata dalam sampel yang diuji sesuai dengan 10, 100 atau 1000 kata yang paling mungkin, indikator berubah menjadi hijau, kuning atau merah, masing-masing. Bahkan, ia menggunakan teksnya sendiri yang dapat diprediksi sebagai pedoman untuk mengidentifikasi konten yang dibuat secara artifisial.

Video Dipfake


AI modern, yang menghasilkan video, sama berbahayanya dan memiliki kemampuan yang sama, jika tidak hebat, dengan rekan alami. Sebuah artikel akademis yang diterbitkan oleh startup SenseTime yang berbasis di Hong Kong, Universitas Teknologi Nanyang, dan Institut Otomasi Akademi Ilmu Pengetahuan China merinci kerangka kerja yang mengedit rekaman menggunakan audio untuk mensintesis video yang realistis. Dan peneliti dari Hyperconnect di Seoul baru-baru ini mengembangkan alat MarioNETte , yang dapat memanipulasi fitur wajah dari tokoh sejarah, politisi atau CEO, mensintesis wajah yang dianimasikan oleh gerakan orang lain.

Namun, bahkan dipfake paling realistis pun mengandung artefak yang mengeluarkannya. "Dipfake yang dibuat oleh sistem generatif mempelajari sekumpulan gambar nyata dalam video, yang Anda tambahkan gambar baru, dan kemudian menghasilkan video baru dengan gambar baru," kata Ishay Rosenberg, kepala kelompok pelatihan dalam di perusahaan cybersecurity Deep Instinct. β€œVideo yang dihasilkan sedikit berbeda sebagai akibat dari perubahan dalam distribusi data yang dihasilkan secara artifisial dan dalam distribusi data dalam video asli. Ini yang disebut "sekilas dalam matriks," adalah apa yang mampu dibedakan oleh detektor difenik. "


Atas: dua video palsu yang dibuat menggunakan teknik tercanggih.
Gambar milik: SenseTime


Musim panas lalu, sebuah tim dari University of California di Berkeley dan University of Southern California menyiapkan model untuk mencari "unit aksi wajah" yang tepat - data tentang gerakan wajah, kutu dan ekspresi, termasuk ketika mengangkat bibir atas dan memutar kepala ketika orang-orang mengerutkan kening - untuk mengidentifikasi video palsu dengan akurasi lebih dari 90%. Demikian pula, pada Agustus 2018, peserta dalam Program Forensik Media dari Badan Proyek Penelitian Lanjutan Pertahanan AS (DARPA) menguji sistemmampu mendeteksi video yang dihasilkan AI berdasarkan tanda-tanda seperti berkedip tidak alami, gerakan kepala aneh, warna mata yang tidak biasa dan banyak lagi.

Beberapa startup saat ini sedang dalam proses mengkomersilkan alat serupa untuk mendeteksi gambar video palsu. Laboratorium Deeptrace Amsterdam Amsterdam menawarkan satu set alat pemantauan yang ditujukan untuk mengklasifikasikan dipfake yang diunggah ke jejaring sosial, platform hosting video dan jaringan disinformasi. Dessa telah mengusulkan metode untuk meningkatkan detektor palsu yang dilatih pada set video palsu. Dan pada bulan Juli 2018, Truepic mengumpulkan $ 8 juta.untuk membiayai layanannya untuk deteksi palsu dalam video dan foto. Pada Desember 2018, perusahaan mengakuisisi startup Fourandsix, yang pendeteksi gambar tiruannya menerima lisensi DARPA.


Atas: Gambar dipfake yang diedit oleh AI.

Selain mengembangkan sistem yang sepenuhnya terlatih, sejumlah perusahaan telah menerbitkan korps teks dengan harapan komunitas riset akan mengembangkan metode baru untuk mendeteksi palsu. Untuk mempercepat proses ini, Facebook, bersama dengan Amazon Web Services (AWS), Partnership on AI, dan akademisi dari beberapa universitas, memimpin Deepfake Detection Challenge. Program ini memiliki satu set sampel video dengan label yang menunjukkan bahwa beberapa di antaranya dipengaruhi oleh kecerdasan buatan. Pada September 2019, Google merilis koleksi palsu visualsebagai bagian dari tes FaceForensics, yang dibuat oleh Technical University of Munich dan University of Naples Federico II. Dan yang terbaru, para peneliti dari SenseTime, bersama dengan Nanyang University of Technology di Singapura, telah mengembangkan DeeperForensics-1.0 , kumpulan data untuk mendeteksi palsu yang mereka klaim adalah yang terbesar dari jenisnya.

Audio Dipfake


AI dan pembelajaran mesin tidak hanya cocok untuk mensintesis video dan teks, mereka juga dapat menyalin suara. Penelitian yang tak terhitung jumlahnya telah menunjukkan bahwa satu set data kecil adalah semua yang diperlukan untuk menciptakan kembali pidato seseorang. Sistem komersial seperti Resemble dan Lyrebird memerlukan beberapa menit rekaman audio, sementara model-model canggih, seperti implementasi Baidu Deep Voice terbaru, hanya dapat menyalin suara dari sampel 3,7 detik. Tidak ada banyak alat untuk mendeteksi diphake audio, tetapi solusi mulai muncul.





Beberapa bulan yang lalu, tim Resemble merilis alat open-source bernama Resemblyzer, yang menggunakan AI dan pembelajaran mesin untuk mendeteksi dipfake dengan memperoleh sampel suara tingkat tinggi dan memprediksi apakah mereka nyata atau disimulasikan. Setelah menerima file audio dengan ucapan, ia menciptakan representasi matematis yang merangkum karakteristik suara yang direkam. Hal ini memungkinkan pengembang untuk membandingkan kesamaan dari dua suara atau mengetahui siapa yang berbicara saat ini.

Pada Januari 2019, sebagai bagian dari Google News Initiative, Google merilis corpus ucapan yang berisi "ribuan" frasa yang diucapkan menggunakan model text-to-speech. Sampel diambil dari artikel berbahasa Inggris yang dibaca oleh 68 suara sintetis yang berbeda dalam dialek yang berbeda. Kasing ini tersedia untuk semua peserta ASVspoof 2019 , sebuah kontes yang tujuannya adalah untuk mempromosikan penanggulangan terhadap ucapan palsu.

Banyak yang hilang


Tak satu pun dari detektor telah mencapai akurasi yang sempurna, dan para peneliti belum menemukan cara mengidentifikasi kepalsuan. Deep Instinct Rosenberg mengharapkan ini untuk menginspirasi aktor jahat untuk menyebarkan tipuan. "Bahkan jika dipfake yang dibuat oleh penyerang terdeteksi, hanya risiko dipfake yang diungkapkan," katanya. "Untuk seorang aktor, risiko tertangkap sangat minim, jadi ada beberapa kendala untuk tidak membuat palsu."

Teori Rosenberg didukung oleh laporan Deeptrace , yang menemukan 14.698 video palsu online selama hitungan terbarunya di bulan Juni dan Juli 2019. Selama periode tujuh bulan, jumlah mereka meningkat 84%. Sebagian besar dari mereka (96%) adalah video porno yang menampilkan wanita.

Mengingat angka-angka ini, Rosenberg berpendapat bahwa perusahaan yang "kehilangan banyak" karena diphake harus mengembangkan dan menerapkan teknologi deteksi mendalam pada produk mereka, yang, menurut pendapatnya, mirip dengan program antivirus. Dan di daerah ini pergeseran telah muncul; Facebook mengumumkan pada awal Januari bahwa mereka akan menggunakan kombinasi sistem otomatis dan manual untuk mendeteksi konten palsu, dan Twitter baru-baru ini menyarankan untuk menandai diphakes dan menghapus yang mungkin berbahaya.

Tentu saja, teknologi yang mendasari generasi dipfake hanyalah alat, dan mereka memiliki potensi besar untuk perbuatan baik. Michael Klozer, kepala Data & Trust di Access Partnership, sebuah perusahaan konsultan, mengatakan teknologi tersebut sudah digunakan untuk meningkatkan diagnosa medis dan deteksi kanker, mengisi celah dalam pemetaan alam semesta, dan meningkatkan pelatihan kendaraan tak berawak. Karena itu, ia memperingatkan penggunaan kampanye umum untuk memblokir AI generatif.

β€œKarena para pemimpin mulai menerapkan norma-norma hukum yang ada dalam kasus-kasus urusan diplomatik, sangat penting sekarang untuk tidak menyingkirkan teknologi berhargamenyingkirkan kepalsuan, ”kata Klozer. "Pada akhirnya, hukum kasus dan norma sosial mengenai penggunaan teknologi baru ini tidak cukup matang untuk menciptakan garis merah terang yang menggambarkan penggunaan dan penyalahgunaan yang adil."

All Articles