Yo. Gambar wajah sebelah kanan ini adalah wajah dari... manusia... yang tidak pernah ada.
Ya... ini kerjaannya neural network (NN) sih. Canggih ye? Wkwkwk. NN jenis ini julukannya generative adversaril network (GAN).
Saat melatih GAN, ada 2 NN yang kita latih bersamaan: generator network dan discriminator network. Generator tugasnya meng-“generate” gambar wajah dari random noise. Discriminator tugasnya mendeteksi apakah suatu gbr wajah ini beneran wajah asli atau hasil perbuatan generator
Mula-mula, generator hanya menghasilkan gambar ampas yg mudah dibedakan oleh discriminator. Lama-lama kian realistis dan mengecoh discriminator. Tapi discriminator juga tidak mau kalah.
Keduanya bersaing. Si generator berupaya menghasilkan gambar realistis untuk ngibulin discriminator, dan discriminator berupaya untuk selalu bisa membedakan mana fake, mana real.
Kemampuan GAN yg ciamik untuk meng-generate output realistis ini akhirnya diterapkan utk banyak hal. Misalnya, generate karakter anime (Yinghua Jin, et al., 2017)
(Btw contoh2 ini saya nyomot dari machinelearningmastery dll)
Ini ada lagi. Membuat videomu jadi menari-nari. Kocak nih. :)))
Caroline Chan, et al. (2018). Judul papernya “Everybody dance now”
Caroline Chan, et al. (2018). Judul papernya “Everybody dance now”
Cakep? Iya dong. Ciamik? Woiya dong.
Potensi bahaya? Iya juga :)))
Potensi bahaya? Iya juga :)))
Pernah dengar deepfake? Ini varian dari GAN. Generator-nya dilatih untuk mengubah wajah seseorang menjadi wajah orang lain. Singkatnya, secara realistis, wajahmu bisa saja “ditempelkan” ke tubuh aktris/aktor porno.
Tentu saja saya ngga mau menyertakan contoh gambar :p
Tentu saja saya ngga mau menyertakan contoh gambar :p
Ada lagi bahayanya? Oiya ada dong. Selain generate gambar dan video, GAN juga kepake buat generate speech. Nah. Speech udah di-generate, video di-generate. Kombinasinya adalah...
Hoax berkualitas tinggi....
Hoax berkualitas tinggi....
Tontonlah video pidato obama (yang bukan obama) ini. Hehehehehehe...
Tetap woles, sobatqu. Riset masih terus berjalan. Para peneliti masih aktif mengembangkan “discriminator” yang kuat. Cukup kuat membedakan mana real dan fake.
Ya... walau sedih juga... beginian aja kita lagi-lagi bertaruh pada mesin.
Ya... walau sedih juga... beginian aja kita lagi-lagi bertaruh pada mesin.

Pesan nenek saya singkat saja: “hati-hati di internet”

Foto2mu, video2mu, yg kamu unggah, siapa yang tahu, akan ada yg menyalahgunakannya untuk melatih NN yang berfungsi tak senonoh itu~