All language subtitles for The Cleaners retail

af Afrikaans
ak Akan
sq Albanian
am Amharic
ar Arabic
hy Armenian
az Azerbaijani
eu Basque
be Belarusian
bem Bemba
bn Bengali
bh Bihari
bs Bosnian
br Breton
bg Bulgarian
km Cambodian
ca Catalan
ceb Cebuano
chr Cherokee
ny Chichewa
zh-CN Chinese (Simplified)
zh-TW Chinese (Traditional)
co Corsican
hr Croatian
cs Czech
da Danish
nl Dutch
en English
eo Esperanto
et Estonian
ee Ewe
fo Faroese
tl Filipino
fi Finnish
fr French
fy Frisian
gaa Ga
gl Galician
ka Georgian
de German
el Greek
gn Guarani
gu Gujarati
ht Haitian Creole
ha Hausa
haw Hawaiian
iw Hebrew
hi Hindi
hmn Hmong
hu Hungarian
is Icelandic
ig Igbo
id Indonesian
ia Interlingua
ga Irish
it Italian
ja Japanese
jw Javanese
kn Kannada
kk Kazakh
rw Kinyarwanda
rn Kirundi
kg Kongo
ko Korean
kri Krio (Sierra Leone)
ku Kurdish
ckb Kurdish (Soranî)
ky Kyrgyz
lo Laothian
la Latin
lv Latvian
ln Lingala
lt Lithuanian
loz Lozi
lg Luganda
ach Luo
lb Luxembourgish
mk Macedonian
mg Malagasy
ms Malay
ml Malayalam
mt Maltese
mi Maori
mr Marathi
mfe Mauritian Creole
mo Moldavian
mn Mongolian
my Myanmar (Burmese)
sr-ME Montenegrin
ne Nepali
pcm Nigerian Pidgin
nso Northern Sotho
no Norwegian
nn Norwegian (Nynorsk)
oc Occitan
or Oriya
om Oromo
ps Pashto
fa Persian
pl Polish
pt-BR Portuguese (Brazil)
pt Portuguese (Portugal)
pa Punjabi
qu Quechua
ro Romanian
rm Romansh
nyn Runyakitara
ru Russian
sm Samoan
gd Scots Gaelic
sr Serbian
sh Serbo-Croatian
st Sesotho
tn Setswana
crs Seychellois Creole
sn Shona
sd Sindhi
si Sinhalese
sk Slovak
sl Slovenian
so Somali
es Spanish Download
es-419 Spanish (Latin American)
su Sundanese
sw Swahili
sv Swedish
tg Tajik
ta Tamil
tt Tatar
te Telugu
th Thai
ti Tigrinya
to Tonga
lua Tshiluba
tum Tumbuka
tr Turkish
tk Turkmen
tw Twi
ug Uighur
uk Ukrainian
ur Urdu
uz Uzbek
vi Vietnamese
cy Welsh
wo Wolof
xh Xhosa
yi Yiddish
yo Yoruba
zu Zulu
Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated: 1 00:00:25,480 --> 00:00:30,800 LEBIH DARI 3 MILIAR ORANG TERHUBUNG LEWAT MEDIA SOSIAL. 2 00:00:32,360 --> 00:00:36,640 SETIAP MENIT, 500 JAM VIDEO DIUNGGAH KE YOUTUBE, 3 00:00:36,800 --> 00:00:41,160 450.000 CUITAN KE TWITTER DAN 2,5 JUTA KIRIMAN KE FACEBOOK. 4 00:00:42,400 --> 00:00:47,200 TIDAK SEMUA YANG DIUNGGAH PENGGUNA DIBIARKAN OLEH PEMILIK PLATFORM. 5 00:01:10,200 --> 00:01:13,320 TANPA KAMI, INTERNET AKAN KACAU-BALAU. 6 00:01:13,880 --> 00:01:16,160 KAMI MENGHAPUS FOTO, VIDEO DAN TEKS, 7 00:01:16,320 --> 00:01:19,880 YANG MELANGGAR ATURAN MEDIA SOSIAL. 8 00:01:20,040 --> 00:01:25,680 SEBAGIAN BESAR KONTEN YANG KAMI PANTAU DI MANILA BERASAL DARI EROPA DAN AS. 9 00:01:34,000 --> 00:01:37,200 ADA UNIT-UNIT LEBIH KECIL DI NEGARA-NEGARA LAIN, 10 00:01:37,360 --> 00:01:39,720 TAPI FILIPINA ADALAH YANG TERBESAR. 11 00:01:39,880 --> 00:01:42,080 ADA RIBUAN PEKERJA DI SINI. 12 00:01:42,240 --> 00:01:45,360 KALAU PERUSAHAAN SAMPAI TAHU BAHWA SAYA BICARA DENGAN KALIAN, 13 00:01:45,520 --> 00:01:47,600 SAYA AKAN MENDAPAT MASALAH. 14 00:01:47,760 --> 00:01:51,240 KLIEN MENGANCAM AKAN MEMBATALKAN SELURUH ORDER. 15 00:02:09,520 --> 00:02:14,000 Saya harus tetap anonim, karena kami sudah teken kontrak. 16 00:02:15,000 --> 00:02:18,880 Kami tidak boleh mengatakan untuk siapa kami bekerja. 17 00:02:20,000 --> 00:02:21,680 Saya bicara dengan kalian karena 18 00:02:21,840 --> 00:02:24,280 dunia perlu tahu 19 00:02:24,440 --> 00:02:26,160 bahwa kami ada. 20 00:02:27,760 --> 00:02:31,040 Ada yang mengawasi media sosial. 21 00:02:31,680 --> 00:02:37,040 Kami berupaya keras agar platform ini aman untuk semua. 22 00:02:47,640 --> 00:02:49,000 Hapus. 23 00:02:49,400 --> 00:02:50,760 Abaikan. 24 00:02:51,360 --> 00:02:52,360 Abaikan. 25 00:02:52,520 --> 00:02:53,840 Hapus. 26 00:02:54,000 --> 00:02:54,760 Hapus. 27 00:02:55,000 --> 00:02:55,800 Abaikan. 28 00:02:56,000 --> 00:02:57,000 Abaikan. 29 00:03:03,400 --> 00:03:06,640 Kami hadir untuk menghubungkan semua orang. 30 00:03:06,800 --> 00:03:09,040 Untuk sebuah komunitas global. 31 00:03:10,040 --> 00:03:14,680 Untuk memberi semua orang kesempatan berbagi apa pun dengan siapa pun. 32 00:03:16,000 --> 00:03:19,800 Mark Zuckerberg kini ibarat editor halaman depan semua koran di dunia. 33 00:03:23,760 --> 00:03:29,440 Platform media sosial perlu dan ingin kontrol penuh atas apa yang terjadi. 34 00:03:30,120 --> 00:03:33,240 Populasi Facebook lebih besar dari populasi negara mana pun di dunia. 35 00:03:33,400 --> 00:03:37,360 Jadi, ketika bertindak sebagai sensor, Facebook berkuasa ibarat negara. 36 00:03:41,600 --> 00:03:42,880 Tanpa media sosial, 37 00:03:43,040 --> 00:03:44,800 pesan saya takkan tersiar. 38 00:03:45,000 --> 00:03:48,640 Bisa jadi saya malah takkan berdiri di sini. 39 00:03:52,640 --> 00:03:56,040 Ada puluhan ribu orang yang melakukan pekerjaan ini. 40 00:03:56,440 --> 00:03:57,880 Semuanya berlangsung tersembunyi, 41 00:03:58,120 --> 00:04:00,040 dilaksanakan oleh orang-orang anonim, 42 00:04:00,240 --> 00:04:03,760 dan mereka mengambil keputusan editorial yang berdampak luas. 43 00:04:35,720 --> 00:04:38,760 MANILA, FILIPINA 44 00:05:03,000 --> 00:05:05,160 Kami tidak mencari penghargaan. 45 00:05:07,200 --> 00:05:09,160 Kami seperti polisi. 46 00:05:11,560 --> 00:05:16,000 Tujuan utama kami adalah membuat platform sesehat mungkin. 47 00:05:17,000 --> 00:05:18,800 Ada yang harus menjaganya, 48 00:05:19,480 --> 00:05:21,120 sama seperti di dunia nyata. 49 00:05:33,400 --> 00:05:37,440 Saya sangat menyukai pekerjaan saya. 50 00:05:42,560 --> 00:05:45,480 Moderator konten itu ibarat penjaga. 51 00:05:46,080 --> 00:05:47,120 Kami melindungi para pengguna. 52 00:05:48,320 --> 00:05:49,760 Itulah pekerjaan saya. 53 00:05:55,600 --> 00:05:58,640 Kami tidak boleh membocorkan apa pun. 54 00:05:58,880 --> 00:06:03,400 Tidak ada yang boleh tahu tentang pekerjaan ini. 55 00:06:04,720 --> 00:06:08,520 Nanti orang akan penasaran. 56 00:06:37,520 --> 00:06:40,840 Saya sudah enam tahun bekerja sebagai moderator konten. 57 00:06:42,160 --> 00:06:46,000 Saya sudah mengamati tidak terhitung banyaknya video dan gambar. 58 00:06:49,760 --> 00:06:53,440 Gambar-gambar ditampilkan di monitor. 59 00:06:54,120 --> 00:06:56,040 Lalu kami menyisir semuanya 60 00:06:56,280 --> 00:07:02,760 dan menghapus gambar-gambar yang melanggar garis pedoman. 61 00:07:06,520 --> 00:07:12,480 Kuota harian adalah 25.000 gambar. Per hari kami amati 25.000 gambar. 62 00:07:14,760 --> 00:07:18,040 Bisa jadi saya ada dalam Guinness-Book of Records. 63 00:07:29,200 --> 00:07:33,240 Tugas utama moderator konten adalah 64 00:07:34,640 --> 00:07:36,800 menyingkirkan sampah. 65 00:07:37,040 --> 00:07:39,000 Itu satu-satunya tujuan kami. 66 00:07:39,840 --> 00:07:44,000 Itu tanggung jawab utama kami: 67 00:07:44,160 --> 00:07:49,800 memastikan hal-hal mencurigakan tidak diunggah. 68 00:07:50,040 --> 00:07:51,440 Itu saja. 69 00:08:15,320 --> 00:08:19,280 TUGAS KAMI ADALAH MENGAWASI DAN MEMODERASI KONTEN DARI PENGGUNA. 70 00:08:19,520 --> 00:08:20,560 SAYA MEMBANTU ORANG LAIN. 71 00:08:20,800 --> 00:08:24,160 SAYA MENYETOP PENYEBARLUASAN EKSPLOITASI ANAK. 72 00:08:24,400 --> 00:08:28,560 SAYA HARUS MENGIDENTIFIKASI TERORISME. HARUS MEMBENDUNG PERUNDUNGAN SIBER. 73 00:08:28,800 --> 00:08:32,160 ALGORITME TIDAK BISA MENGGANTIKAN PEKERJAAN KAMI. 74 00:09:07,360 --> 00:09:10,000 Saya mulai di Google tahun 2004. 75 00:09:10,640 --> 00:09:12,360 Saya merasa mendapat privilese 76 00:09:12,600 --> 00:09:17,760 untuk turut mengembangkan infrastruktur di dunia saat ini. 77 00:09:19,200 --> 00:09:23,280 Menjadi bagian dari sesuatu yang begitu dahsyat 78 00:09:23,520 --> 00:09:27,760 dan punya potensi untuk mengubah kehidupan menjadi lebih baik, 79 00:09:28,880 --> 00:09:31,720 itu sesuatu yang luar biasa dan merupakan privilese. 80 00:09:33,200 --> 00:09:38,400 Kita berangkat dari pertanyaan apa yang boleh ada di platform kita, 81 00:09:38,880 --> 00:09:40,560 dan apa yang tidak patut. 82 00:09:41,080 --> 00:09:43,440 Apa yang tidak kita kehendaki di dalam komunitas kita? 83 00:09:44,000 --> 00:09:45,480 Dan itu berarti menentukan pilihan. 84 00:09:45,760 --> 00:09:52,040 Ada pilihan untuk berkata, tidak ada yang boleh diunggah sebelum ditinjau. 85 00:09:52,280 --> 00:09:53,720 Itu sebuah pilihan. 86 00:09:54,000 --> 00:09:56,600 Atau, saya akan biarkan sebagian besar konten 87 00:09:56,840 --> 00:10:00,400 dan hanya meninjau hal-hal yang dilaporkan. 88 00:10:00,680 --> 00:10:03,000 Itu juga sebuah pilihan. 89 00:10:03,840 --> 00:10:08,480 Kalau kita mementingkan keragaman pendapat, 90 00:10:09,480 --> 00:10:13,520 kalau kita ingin agar platform yang demokratis bisa benar-benar hidup, 91 00:10:13,800 --> 00:10:19,160 saya pikir, kita akan memilih kebijakan yang cenderung liberal. 92 00:10:22,360 --> 00:10:23,760 Apakah Anda bersumpah bahwa kesaksian Anda 93 00:10:24,000 --> 00:10:27,200 mengungkapkan kebenaran secara utuh, tanpa ditambah-tambahi? 94 00:10:29,400 --> 00:10:31,040 Terima kasih. 95 00:10:32,000 --> 00:10:33,400 Nicole Wong, 96 00:10:33,680 --> 00:10:39,400 wakil pimpinan bagian hukum dan pejabat privasi tertinggi di Google. 97 00:10:40,040 --> 00:10:41,600 Nyonya Wong, 98 00:10:41,840 --> 00:10:46,480 staf kami mengakses internet dan memasukkan kata "praremaja" plus 99 00:10:47,000 --> 00:10:49,000 "seks" plus "video". 100 00:10:50,080 --> 00:10:51,840 Melihat situs-situs Google saja... 101 00:10:53,000 --> 00:10:56,400 itu seperti daftar pornografi hardcore. 102 00:10:56,680 --> 00:10:59,240 Ada permainan seks, seks praremaja 103 00:10:59,480 --> 00:11:01,240 dan pornografi remaja... 104 00:11:01,480 --> 00:11:03,240 Ada beberapa level yang harus kami tinjau. 105 00:11:03,480 --> 00:11:06,120 Memang mengerikan bahwa ada situs web seperti itu, 106 00:11:06,360 --> 00:11:08,240 dan kita perlu... - Kita semua sepakat, 107 00:11:08,480 --> 00:11:12,120 tapi perusahaan Anda tampaknya paling enggan memblokir atau mencegahnya. 108 00:11:12,360 --> 00:11:13,760 Itu maksud saya. 109 00:11:14,000 --> 00:11:19,800 Di samping peninjauan berjenjang yang kami lakukan untuk menyaring, 110 00:11:20,040 --> 00:11:22,720 kami juga memiliki mesin pencari terbesar di Internet. 111 00:11:23,000 --> 00:11:25,080 Jadi seharusnya lebih mudah menemukan konten seperti itu 112 00:11:25,320 --> 00:11:28,840 dan memblokirnya, mengingat Anda mesin pencari terbesar. 113 00:11:29,040 --> 00:11:33,360 Kami memiliki mesin pencari terbesar dan amat banyak laman untuk ditinjau. 114 00:11:33,600 --> 00:11:38,520 Staf kami terlatih kami untuk melacak dan menyingkirkan situs seperti itu. 115 00:11:38,800 --> 00:11:41,000 Kami berusaha sebaik mungkin - Oke. 116 00:11:52,440 --> 00:11:57,000 Di awal pelatihan saya tidak tahu apa itu moderator konten. 117 00:11:57,240 --> 00:11:59,120 Itu kali pertama saya mendengar istilah tersebut. 118 00:12:01,040 --> 00:12:05,080 Kami diberi tahu apa yang akan kami lihat, alat apa yang akan kami pakai, 119 00:12:05,320 --> 00:12:08,040 dan apa yang menanti kami dalam pekerjaan ini. 120 00:12:14,160 --> 00:12:15,800 Saya masih ingat ... 121 00:12:16,440 --> 00:12:19,240 bahwa saya mau langsung berhenti saja. 122 00:12:24,480 --> 00:12:29,040 Hal paling mengejutkan yang pernah saya lihat sebagai moderator konten 123 00:12:29,240 --> 00:12:33,440 adalah anak kecil lagi mengulum penis di sebuah bilik kerja. 124 00:12:35,000 --> 00:12:37,200 Anak itu telanjang bulat. 125 00:12:37,440 --> 00:12:41,640 Anak perempuan, kira-kira enam tahun, 126 00:12:41,880 --> 00:12:43,360 dengan penis di mulut. 127 00:12:43,600 --> 00:12:46,000 Pada foto lain 128 00:12:46,160 --> 00:12:49,800 anak perempuan itu terbaring di sebuah tempat tidur 129 00:12:50,040 --> 00:12:52,520 dengan sperma berceceran di sini. 130 00:12:53,320 --> 00:12:58,360 Menurut saya itu betul-betul tidak layak dilihat. 131 00:12:58,600 --> 00:13:00,880 Saya langsung mendatangi atasan saya 132 00:13:01,120 --> 00:13:04,320 dan memberi tahunya bahwa saya tidak sanggup. 133 00:13:04,560 --> 00:13:06,600 Saya tidak sanggup melihat anak itu. 134 00:13:06,840 --> 00:13:09,840 Dia hanya bilang, itu bagian dari tugas saya 135 00:13:10,080 --> 00:13:12,520 dan saya sudah terikat kontrak. 136 00:13:36,000 --> 00:13:40,000 Kalau kita bisa hilangkan semua rintangan dan mengundang seluruh dunia 137 00:13:40,160 --> 00:13:42,440 untuk menampilkan dirinya, 138 00:13:42,720 --> 00:13:44,480 untuk mengunggah segenap hidupnya, 139 00:13:44,760 --> 00:13:47,160 berbagi apa saja yang bisa dibagikan, 140 00:13:47,400 --> 00:13:49,360 orang akan menanggapinya, 141 00:13:49,600 --> 00:13:53,600 orang dengan beragam motif, minat dan hasrat akan menanggapinya. 142 00:13:56,560 --> 00:14:01,120 Kalau Facebook atau Google mengaku tidak memiliki karyawan di Manila, 143 00:14:01,360 --> 00:14:03,320 pernyataan itu memang benar, 144 00:14:03,560 --> 00:14:06,680 sebab yang dipakai adalah tenaga kerja perusahaan alih daya pihak ketiga. 145 00:14:07,000 --> 00:14:10,360 Memang benar bahwa gaji dibayar bukan oleh Google atau Facebook, 146 00:14:10,600 --> 00:14:14,840 melainkan oleh perusahaan alih daya yang berkedudukan di Filipina. 147 00:14:17,040 --> 00:14:19,200 Moderator konten komersial 148 00:14:19,440 --> 00:14:22,040 bekerja di bawah bayang-bayang platform media sosial. 149 00:14:22,440 --> 00:14:24,800 Tanpa terlihat, tanpa dipedulikan. 150 00:14:25,000 --> 00:14:31,360 Tanpa diketahui oleh jutaan pengguna platform, yang tidak ambil pusing 151 00:14:31,600 --> 00:14:34,120 siapa yang menjaga kebersihan di platform mereka. 152 00:15:03,320 --> 00:15:06,160 Moderator konten ibarat penembak jitu. 153 00:15:13,080 --> 00:15:15,800 Sasaran kami adalah para pengguna 154 00:15:16,040 --> 00:15:19,000 yang melanggar peraturan aplikasi. 155 00:15:26,800 --> 00:15:27,840 Kena! 156 00:16:17,800 --> 00:16:20,640 Saya bangga dengan putra saya. 157 00:16:21,360 --> 00:16:27,160 Dia membantu segala kebutuhan kami. 158 00:16:27,840 --> 00:16:33,440 Saya tidak tahu apa kerjanya sebagai moderator. 159 00:16:34,240 --> 00:16:36,520 Saya hanya tahu sebatas yang dia ceritakan kepada saya, 160 00:16:36,800 --> 00:16:39,840 yaitu bahwa dia moderator di tempat kerjanya. 161 00:16:48,320 --> 00:16:52,800 Ibu saya selalu bilang, kalau saya tidak rajin belajar, 162 00:16:53,040 --> 00:16:58,120 saya bakal jadi pemulung. 163 00:17:00,840 --> 00:17:05,600 Sepanjang hari mereka mengais sampah. 164 00:17:06,120 --> 00:17:08,720 Mereka hidup dari sampah. 165 00:17:09,000 --> 00:17:12,600 Itu satu-satunya mata pencaharian yang mereka tahu. 166 00:17:15,320 --> 00:17:18,080 Saya takut bernasib jadi pemulung. 167 00:17:18,600 --> 00:17:23,000 Itu salah satu alasan saya rajin belajar di sekolah. 168 00:17:35,120 --> 00:17:39,160 Gaji di Filipina sangat kecil. 169 00:17:40,120 --> 00:17:43,000 Berkat pekerjaan sebagai moderator konten 170 00:17:43,120 --> 00:17:47,480 kami bisa menyambung hidup. 171 00:17:56,080 --> 00:17:57,080 Hapus. 172 00:17:57,320 --> 00:17:58,320 Abaikan. 173 00:17:58,560 --> 00:17:59,800 Hapus. 174 00:18:07,600 --> 00:18:09,320 Ini bisa dihapus. 175 00:18:09,560 --> 00:18:10,760 Hapus. 176 00:18:11,000 --> 00:18:12,240 Abaikan. 177 00:18:13,720 --> 00:18:14,720 Hapus. 178 00:18:14,880 --> 00:18:15,600 Hapus. 179 00:18:15,840 --> 00:18:17,000 Hapus. 180 00:18:36,600 --> 00:18:39,120 ILLMA GORE, SENIMAN, LOS ANGELES 181 00:18:39,560 --> 00:18:45,000 Januari 2016 saya membuat lukisan Donald Trump dengan penis kecil, 182 00:18:45,120 --> 00:18:47,760 yang saya beri judul "Make America Great Again". 183 00:18:49,120 --> 00:18:51,000 Lukisan itu menjadi viral 184 00:18:51,120 --> 00:18:55,400 dan jutaan orang membagikannya lewat berbagai platform. 185 00:18:55,680 --> 00:18:58,080 Beberapa hari kemudian Trump menyinggung ukuran penisnya 186 00:18:58,320 --> 00:19:00,760 di sebuah acara debat. 187 00:19:01,000 --> 00:19:04,680 Saya masih ingat, teman saya ... 188 00:19:05,000 --> 00:19:06,840 Dia menelepon dan berkata: 189 00:19:07,400 --> 00:19:12,000 "Apa kau yang membuat Donald Trump membahas penisnya di acara debat?" 190 00:19:13,120 --> 00:19:18,000 Kata dia, kalau tangan saya kecil, pasti ada lagi yang kecil. 191 00:19:18,160 --> 00:19:21,000 Saya jamin, tidak ada masalah. 192 00:19:23,480 --> 00:19:25,840 Saya taruh di laman Facebook saya, 193 00:19:26,080 --> 00:19:28,880 dan dalam tempo tiga hari sudah dibagikan lebih dari 50 juta kali 194 00:19:29,120 --> 00:19:32,240 di begitu banyak platform media sosial. 195 00:19:32,480 --> 00:19:34,040 Benar-benar gila. 196 00:19:34,280 --> 00:19:37,880 Saya tidak menyangka akan seperti ini. 197 00:19:48,360 --> 00:19:51,040 Ini Donald Trump telanjang. 198 00:19:53,840 --> 00:19:59,120 Dia bukan pemimpin yang tangguh. 199 00:19:59,360 --> 00:20:02,600 Karena itu penisnya cenderung kecil. 200 00:20:03,200 --> 00:20:06,160 Dia kurang perkasa 201 00:20:06,880 --> 00:20:11,400 untuk menangani tugas berat seorang presiden Amerika. 202 00:20:15,080 --> 00:20:17,160 Ini harus dihapus. Kenapa? 203 00:20:18,000 --> 00:20:21,040 Ini merendahkan pribadi Donald Trump, 204 00:20:21,280 --> 00:20:23,200 dan karena itu harus dihapus. 205 00:20:47,080 --> 00:20:49,760 Sebagai moderator konten 206 00:20:50,000 --> 00:20:53,200 kita harus punya prinsip. 207 00:20:55,800 --> 00:21:01,320 Kita yang memutuskan apakah orang akan melihat sebuah gambar atau tidak. 208 00:21:06,840 --> 00:21:10,840 Kesalahan terbesar yang bisa kita lakukan 209 00:21:11,200 --> 00:21:15,160 adalah membiarkan foto telanjang. 210 00:21:15,840 --> 00:21:19,360 Payudara atau kelamin laki-laki 211 00:21:19,600 --> 00:21:21,800 sama sekali tidak bisa diterima. 212 00:21:40,080 --> 00:21:42,040 Laman Facebook saya diblokir, 213 00:21:42,200 --> 00:21:45,600 semua akun saya diblokir. 214 00:21:45,840 --> 00:21:48,240 Padahal hanya itu milik saya. 215 00:21:48,480 --> 00:21:52,200 Jadi saya tidak bisa memberi tahu siapa pun apa yang terjadi. 216 00:21:53,440 --> 00:21:55,720 Facebook bilang, seni rupa tidak apa-apa. 217 00:21:56,000 --> 00:21:57,880 Memang bisa dianggap pornografi, 218 00:21:58,120 --> 00:22:00,640 tapi sebagai seni, ini sebuah representasi. 219 00:22:00,880 --> 00:22:05,280 Ini bukan kenyataan, bukan foto, bukan orang yang tidak memberi izin, 220 00:22:05,520 --> 00:22:07,040 ini rekaan semata. 221 00:22:07,280 --> 00:22:11,760 Tidak ada aspek kekerasan atau seksual, ini hanya tubuh telanjang, 222 00:22:12,000 --> 00:22:13,600 dengan wajah Trump. 223 00:22:14,240 --> 00:22:18,000 Saya tidak paham kenapa orang merasa 224 00:22:18,200 --> 00:22:21,160 telanjang itu menjijikkan. 225 00:22:30,120 --> 00:22:33,680 Dulu saya tidak terbiasa melihat gambar seperti ini. 226 00:22:35,440 --> 00:22:39,280 Mula-mula kami harus dilatih dulu. 227 00:22:41,640 --> 00:22:46,040 Kami diperkenalkan dengan berbagai istilah seksual. 228 00:22:46,720 --> 00:22:50,120 Kami harus tahu semuanya, 229 00:22:50,360 --> 00:22:54,840 kata seperti "pussy" atau "tits". 230 00:22:55,280 --> 00:23:00,600 Dulu saya tidak tahu istilah itu. Saya benar-benar polos. 231 00:23:00,840 --> 00:23:04,480 Saya benar-benar tidak tahu. 232 00:23:04,760 --> 00:23:08,800 Lalu ada mainan seks. 233 00:23:09,040 --> 00:23:12,440 Itu juga saya tidak tahu. 234 00:23:13,000 --> 00:23:17,320 Istilah seperti "butt plugs". 235 00:23:17,880 --> 00:23:20,040 Saya tidak tahu apa itu. 236 00:23:20,280 --> 00:23:24,680 Saya pikir itu seperti sumbat untuk tempat cuci piring, 237 00:23:25,000 --> 00:23:26,600 agar airnya tidak terbuang. 238 00:23:26,840 --> 00:23:29,840 Karena itu saya dulu 239 00:23:30,080 --> 00:23:33,640 biasa menonton macam-macam film porno setelah pulang ke rumah. 240 00:23:37,440 --> 00:23:41,080 Saya tidak biasa melihat penis. 241 00:23:41,520 --> 00:23:46,000 Setiap kali saya tidur malam, 242 00:23:47,320 --> 00:23:51,160 saya bermimpi tentang segala macam jenis penis. 243 00:23:51,400 --> 00:23:54,520 Saya melihat penis di mana-mana. 244 00:23:54,760 --> 00:23:57,520 Dan waktu bangun... Selamat pagi! 245 00:23:57,760 --> 00:24:02,080 Astaga mimpi tadi, begitu banyak penis berbeda. Wow! 246 00:24:02,720 --> 00:24:07,680 Ada yang panjang, pendek, putih, hitam, gendut, 247 00:24:08,000 --> 00:24:12,600 kurus, muda dan sangat tua, penuh bercak... 248 00:24:13,120 --> 00:24:17,840 Itu berat sekali, dan akhirnya menjadi semacam... 249 00:24:18,080 --> 00:24:19,600 kesenangan terlarang. 250 00:24:19,840 --> 00:24:23,160 Saya merasa bersalah karena menonton hal-hal seperti itu. 251 00:24:23,400 --> 00:24:27,000 Tapi ada rasa senang juga. 252 00:24:37,720 --> 00:24:40,520 Colin Stretch, Pimpinan Bagian Legal di Facebook, 253 00:24:40,800 --> 00:24:43,520 Sean Edgett, Pimpinan Bagian Legal di Twitter, 254 00:24:43,800 --> 00:24:45,320 Richard Salgado, 255 00:24:45,560 --> 00:24:49,520 Direktur Penegakan Hukum dan Keamanan Informasi di Google. 256 00:24:50,040 --> 00:24:52,880 Jutaan orang Amerika menggunakan teknologi Anda 257 00:24:53,120 --> 00:24:55,720 untuk membagikan langkah pertama seorang cucu, 258 00:24:56,000 --> 00:24:58,760 untuk bercerita tentang hal baik dan buruk dalam hidup mereka. 259 00:24:59,000 --> 00:25:02,000 Anda semua telah memperkaya Amerika. 260 00:25:02,800 --> 00:25:05,160 Tapi pada akhirnya, 261 00:25:05,400 --> 00:25:09,080 berbagai teknologi itu juga dapat dimanfaatkan 262 00:25:09,320 --> 00:25:12,240 untuk merongrong demokrasi kita dan membahayakan bangsa kita. 263 00:25:13,040 --> 00:25:16,280 Apakah Anda setuju bahwa ada dampak buruk terhadap bisnis 264 00:25:16,520 --> 00:25:19,880 jika rakyat Amerika merasa bahwa platform Anda 265 00:25:20,080 --> 00:25:25,200 dapat dibajak oleh teroris untuk meradikalisasi orang Amerika? 266 00:25:26,400 --> 00:25:28,400 Itu lebih dari sekadar buruk untuk bisnis, Senator. 267 00:25:28,640 --> 00:25:31,000 Di Facebook tidak ada tempat untuk terorisme. 268 00:25:31,160 --> 00:25:32,760 Kami sependapat. 269 00:25:33,000 --> 00:25:35,000 Saya setuju dengan pernyataan itu. 270 00:25:38,880 --> 00:25:41,000 Saya ingin mengajukan beberapa pertanyaan. 271 00:25:41,120 --> 00:25:45,440 Ada perbedaan besar antara akun pelaku jihad potensial ... 272 00:25:45,720 --> 00:25:49,280 Ada banyak sekali interpretasi teologi 273 00:25:49,520 --> 00:25:53,120 perihal kekerasan atas nama agama. 274 00:25:53,360 --> 00:25:58,600 Seluk-beluk jihad bukan bagian dari pendidikan orang-orang teknik. 275 00:25:58,840 --> 00:26:02,600 Siapa para ahli konten Anda, dan bagaimana mereka diseleksi? 276 00:26:02,840 --> 00:26:08,840 Kami mempunyai ribuan karyawan yang dalam rangka tugas mereka 277 00:26:09,040 --> 00:26:12,000 berupaya menghalau terorisme dari Facebook. 278 00:26:12,120 --> 00:26:14,640 Ada 150 karyawan yang khusus mengerjakan itu. 279 00:26:14,880 --> 00:26:17,560 Di Twitter ada berapa orang, Pak Edgett? 280 00:26:17,800 --> 00:26:21,600 Kami memanfaatkan teknologi, seperti algoritme 281 00:26:21,840 --> 00:26:24,000 dan pembelajaran mesin, untuk membantu kami, 282 00:26:24,240 --> 00:26:29,480 tapi juga tim kepercayaan dan keamanan serta tim layanan pengguna. 283 00:26:29,720 --> 00:26:31,040 Itu ratusan orang. 284 00:26:31,280 --> 00:26:32,600 Bagaimana dengan Anda? 285 00:26:32,840 --> 00:26:35,000 Secara internal ada ribuan orang. 286 00:26:35,200 --> 00:26:40,000 Kami juga mendapat banyak petunjuk terkait konten 287 00:26:40,160 --> 00:26:42,000 dari luar perusahaan. 288 00:26:43,200 --> 00:26:48,600 Pak Stretch, kalau begitu, apakah 150 orang cukup, menurut Anda? 289 00:26:49,760 --> 00:26:51,720 Kalau boleh saya perjelas: 290 00:26:52,000 --> 00:26:56,600 Kami mempunyai sekitar sepuluh ribu karyawan di bidang keamanan umum, 291 00:26:56,840 --> 00:27:01,000 dan kami berencana menggandakan angka itu sampai akhir 2018. 292 00:27:08,200 --> 00:27:10,800 ADA DAFTAR BERISI 37 ORGANISASI TEROR 293 00:27:11,000 --> 00:27:12,840 YANG HARUS KAMI TANGKAL. 294 00:27:13,160 --> 00:27:16,600 DAFTAR ITU BERASAL DARI KEMENTERIAN KEAMANAN DALAM NEGERI AS. 295 00:27:17,000 --> 00:27:21,040 KAMI HARUS MENGHAFAL SEMUA INFORMASI TENTANG KELOMPOK-KELOMPOK TERORIS ITU: 296 00:27:21,680 --> 00:27:24,360 BENDERA MEREKA, UJARAN MEREKA. 297 00:27:24,880 --> 00:27:27,000 LALU KAMI LAKUKAN MODERASI. 298 00:27:37,360 --> 00:27:38,120 Hapus. 299 00:27:39,400 --> 00:27:40,400 Hapus. 300 00:27:41,480 --> 00:27:42,680 Hapus. 301 00:27:43,000 --> 00:27:44,000 Abaikan. 302 00:27:45,320 --> 00:27:46,360 Hapus. 303 00:27:47,040 --> 00:27:48,200 Hapus. 304 00:27:50,680 --> 00:27:51,840 Hapus. 305 00:27:55,680 --> 00:27:58,320 Saya sudah menyaksikan ratusan pemenggalan 306 00:28:01,160 --> 00:28:05,000 selama menjadi moderator konten. 307 00:28:09,720 --> 00:28:12,400 Bukan hanya foto, juga video. 308 00:28:13,440 --> 00:28:16,480 Video pemenggalan selama dua menit. 309 00:28:17,120 --> 00:28:21,000 Algojonya berpidato dulu 310 00:28:21,160 --> 00:28:25,560 sebelum memenggal kepala para korban. 311 00:28:26,640 --> 00:28:33,240 Kadang-kadang mereka beruntung, dan pisau yang dipakai itu tajam. 312 00:28:33,840 --> 00:28:36,080 Skenario terburuk adalah pisau kecil, 313 00:28:36,280 --> 00:28:38,160 mirip pisau dapur, 314 00:28:38,360 --> 00:28:40,200 yang tidak terlalu tajam. 315 00:28:40,400 --> 00:28:44,760 Kadang-kadang perlu waktu satu menit sebelum kepalanya terpenggal. 316 00:28:47,000 --> 00:28:49,440 Di sini dipakai bilah pendek. 317 00:28:50,600 --> 00:28:51,600 Sebab dari ... 318 00:28:51,880 --> 00:28:53,440 Di sini terlihat, 319 00:28:54,520 --> 00:28:56,440 bagaimana kepalanya dipotong. 320 00:28:58,160 --> 00:29:01,280 Potongannya tidak bersih, tapi gerigis. 321 00:29:04,000 --> 00:29:07,320 Sebab kalau mereka memakai bilah yang lebih panjang dan tajam, 322 00:29:07,560 --> 00:29:09,480 bekas potongannya bersih 323 00:29:09,720 --> 00:29:11,640 dan darahnya tidak terlalu banyak. 324 00:29:13,840 --> 00:29:16,560 Di sini dipakai pisau dapur. 325 00:29:23,720 --> 00:29:25,240 Ini benar-benar sulit. 326 00:29:58,560 --> 00:30:00,640 Setiap kali kami temukan foto atau video 327 00:30:00,880 --> 00:30:03,120 di media sosial, 328 00:30:03,360 --> 00:30:08,520 kami langsung mengarsipkannya, karena bisa saja segera dihapus. 329 00:30:09,520 --> 00:30:12,000 Bagi kami penting untuk mendokumentasikan foto-foto ini, 330 00:30:12,200 --> 00:30:14,440 karena bisa lenyap untuk selamanya. 331 00:30:18,160 --> 00:30:22,440 Hampir setiap orang di Suriah punya ponsel dan menjadi aktivis. 332 00:30:22,720 --> 00:30:26,840 Setiap dugaan serangan udara didokumentasi: akibatnya, 333 00:30:28,560 --> 00:30:30,840 korbannya, kehancurannya, 334 00:30:31,000 --> 00:30:32,840 apakah ini dari pihak koalisi, 335 00:30:33,040 --> 00:30:35,680 Rusia atau rezim Suriah. 336 00:30:36,000 --> 00:30:40,040 Semua video dikumpulkan dan diunggah ke akun mereka. 337 00:30:47,360 --> 00:30:49,640 Setelah mengumpulkan data, 338 00:30:49,880 --> 00:30:52,800 kami berusaha menentukan lokasi yang tepat. 339 00:30:53,000 --> 00:30:55,160 Hasilnya kami publikasikan daring 340 00:30:55,400 --> 00:30:58,720 untuk membantu memberi gambaran mengenai perang di Suriah. 341 00:31:00,120 --> 00:31:04,360 Ini sekolahnya, dan serangan udara terjadi di daerah ini, 342 00:31:04,640 --> 00:31:06,400 di daerah sekitar sekolah. 343 00:31:08,240 --> 00:31:13,680 Tanpa kerja kami, militer atau pemerintahan bebas bertindak, 344 00:31:14,640 --> 00:31:17,320 tanpa dipertanyakan. 345 00:31:17,600 --> 00:31:20,520 Korban di kalangan sipil akan meningkat, 346 00:31:20,760 --> 00:31:22,040 takkan ada kejelasan. 347 00:31:23,120 --> 00:31:25,600 Kita takkan bisa tahu apa yang sedang terjadi. 348 00:31:27,000 --> 00:31:28,760 Video-video ini diperlukan 349 00:31:29,000 --> 00:31:30,520 dan menjadi bagian dari perang. 350 00:31:31,480 --> 00:31:35,760 Ini rekaman informasi dan bukti untuk masa mendatang. 351 00:31:38,680 --> 00:31:40,080 Masalahnya, 352 00:31:40,320 --> 00:31:44,040 video-video ini sering digolongkan sebagai video ISIS. 353 00:31:44,280 --> 00:31:47,520 Isinya sangat mencolok, dan karena itu videonya dihapus. 354 00:31:50,360 --> 00:31:53,560 Penyensoran di YouTube 355 00:31:53,800 --> 00:31:56,000 berdampak kepada banyak organisasi 356 00:31:56,200 --> 00:32:00,000 yang memiliki video mengenai Suriah, serangan udara, dan kehancuran. 357 00:32:00,120 --> 00:32:01,840 Akun organisasi seperti itu diblokir. 358 00:32:03,640 --> 00:32:06,400 Hidup di sana berbeda dengan di sini. Di sana perang. 359 00:32:06,680 --> 00:32:09,360 Karena itu kontennya pun berbeda. 360 00:32:09,760 --> 00:32:13,720 Kami berfokus kepada perang, serangan udara, dan pembantaian, 361 00:32:14,000 --> 00:32:15,640 itulah yang kami liput. 362 00:32:16,400 --> 00:32:19,440 Kami tidak mewartakan kegiatan persepakbolaan 363 00:32:19,720 --> 00:32:23,120 atau tempat makan siang terbaik. 364 00:32:24,000 --> 00:32:25,080 Sayangnya tidak. 365 00:32:56,000 --> 00:33:00,000 Keputusan tentang apa yang tergolong sebagai konten teroris 366 00:33:00,240 --> 00:33:03,360 sangat tergantung kepada konteks. 367 00:33:04,240 --> 00:33:09,760 Konten yang tampil sebagai ancaman nyata di satu platform 368 00:33:10,000 --> 00:33:13,400 mungkin tampil sebagai berita di platform lain, 369 00:33:13,680 --> 00:33:20,400 atau sebagai satire atau kritik terhadap konten lain. 370 00:33:20,680 --> 00:33:26,040 Banyak sekali yang tergantung kepada konteks untuk konten tertentu 371 00:33:26,280 --> 00:33:30,120 sehingga sulit untuk memutuskan apakah konten itu perlu dihapus atau tidak. 372 00:33:34,040 --> 00:33:36,600 Selalu ada pertanyaan sulit. 373 00:33:37,360 --> 00:33:40,160 Eksekusi Saddam Hussein 374 00:33:40,720 --> 00:33:43,440 diam-diam direkam oleh seseorang 375 00:33:43,760 --> 00:33:45,600 dan diunggah ke YouTube. 376 00:33:46,400 --> 00:33:50,840 Keesokan hari ada dua video eksekusi: 377 00:33:51,040 --> 00:33:53,600 Satu menunjukkan ia digantung. 378 00:33:54,040 --> 00:33:59,440 Satu lagi menunjukkan jenazahnya. 379 00:34:00,040 --> 00:34:06,000 Keduanya sarat kekerasan dan sangat jelas 380 00:34:06,440 --> 00:34:10,520 dan kami harus memutuskan apakah akan dibiarkan atau dihapus? 381 00:34:11,200 --> 00:34:16,360 Kami memutuskan untuk membiarkan video hukuman gantung, 382 00:34:16,600 --> 00:34:20,360 karena video itu bernilai sejarah, 383 00:34:21,400 --> 00:34:24,400 yaitu eksekusi bekas diktator. 384 00:34:25,400 --> 00:34:31,200 Tapi video jenazahnya kami anggap tidak perlu. 385 00:34:31,680 --> 00:34:34,640 Tidak ada relevansi historisnya, 386 00:34:34,880 --> 00:34:36,680 jadi kami hapus video itu. 387 00:34:37,760 --> 00:34:41,520 Saya tidak tahu apakah kami mengambil keputusan yang tepat. 388 00:34:41,720 --> 00:34:43,880 Perjalanan sejarah akan memberi jawaban. 389 00:34:44,840 --> 00:34:49,000 Tapi itulah keputusan yang harus diambil 390 00:34:49,200 --> 00:34:51,360 untuk tiap-tiap video. 391 00:34:51,520 --> 00:34:54,240 Coba bayangkan para staf di seluruh dunia. 392 00:34:54,480 --> 00:34:59,000 Mereka menilai konten dari negara yang belum pernah mereka datangi, 393 00:34:59,200 --> 00:35:03,280 tanpa pengetahuan latar belakang. 394 00:35:03,520 --> 00:35:07,240 Menilai konten bermasalah itu sangat berat. 395 00:35:08,160 --> 00:35:12,000 KETUA TIM KAMI TIDAK BISA MEMANTAU SETIAP KEPUTUSAN KAMI. 396 00:35:12,240 --> 00:35:14,800 MEREKA HANYA MEMERIKSA 3 PERSEN 397 00:35:15,040 --> 00:35:18,000 LAPORAN SEORANG MODERATOR. 398 00:35:18,200 --> 00:35:21,520 BEGITULAH PROSEDUR EVALUASI MUTU. 399 00:35:34,760 --> 00:35:40,080 Ini foto terkenal. 400 00:35:40,320 --> 00:35:42,840 Kalau tidak salah, dari zaman Perang Vietnam. 401 00:35:43,640 --> 00:35:48,320 Saya rasa, anak ini menjadi ikon di Vietnam. 402 00:35:51,880 --> 00:35:54,280 Tapi berdasarkan garis pedoman kami, 403 00:35:55,000 --> 00:35:57,320 kalau ada alat kelamin dan anak di bawah umur, 404 00:35:57,600 --> 00:35:59,000 hapus. 405 00:36:02,480 --> 00:36:04,680 Ini mudah: 406 00:36:05,840 --> 00:36:07,240 Zoophilia. 407 00:36:08,000 --> 00:36:14,640 Ini laki-laki tua yang berhubungan seks dengan seekor burung. 408 00:36:15,040 --> 00:36:19,040 Semua yang berkaitan dengan hubungan seks harus dihapus. 409 00:36:19,280 --> 00:36:21,080 Jadi ini pun saya hapus. 410 00:36:26,240 --> 00:36:28,640 Di sini kita melihat seorang laki-laki berlutut 411 00:36:29,240 --> 00:36:32,480 dan seekor anjing besar dan seorang serdadu, 412 00:36:33,480 --> 00:36:36,280 kemungkinan anggota ISIS. 413 00:36:36,880 --> 00:36:39,800 Sebelah kiri ini petarung ISIS. 414 00:36:40,040 --> 00:36:42,160 Dan ini tahanannya. 415 00:36:43,720 --> 00:36:47,000 Ini cara penyiksaan ISIS. 416 00:36:49,200 --> 00:36:52,000 Karena itu kita hapus. 417 00:37:01,480 --> 00:37:07,720 Ini foto anak kecil korban kecelakaan saat banjir. 418 00:37:08,360 --> 00:37:11,120 Kalau kita bekerja untuk pers, 419 00:37:11,720 --> 00:37:15,320 foto seperti ini tidak dipublikasi. 420 00:37:15,760 --> 00:37:19,120 Fotonya bisa dipublikasikan, tapi harus disensor, 421 00:37:20,280 --> 00:37:23,200 tidak boleh sejelas ini. 422 00:37:23,440 --> 00:37:27,640 Fotonya boleh dipasang, tapi jangan sejelas ini. 423 00:37:28,200 --> 00:37:31,560 Ini menurut saya tidak bisa diterima dan harus dihapus. 424 00:37:51,000 --> 00:37:54,800 Janggal rasanya: secara fisik saya di Berlin, 425 00:37:55,040 --> 00:38:00,000 tapi secara emosional dan mental saya sepenuhnya di Suriah. 426 00:38:02,040 --> 00:38:04,560 Saya mengamati perang dari jauh. 427 00:38:09,000 --> 00:38:12,760 Saya merasa bersalah karena berhasil selamat. 428 00:38:16,480 --> 00:38:19,040 KHALED BARAKEH, SENIMAN BERLIN/DAMASKUS 429 00:38:20,240 --> 00:38:26,000 Saya memasang foto-foto ini di dinding Facebook saya, 430 00:38:26,200 --> 00:38:28,760 kemudian disingkirkan oleh Facebook setelah tiga hari. 431 00:38:29,000 --> 00:38:30,760 Tidak pernah ada penjelasan. 432 00:38:32,120 --> 00:38:36,560 Saya coba kontak dengan segala cara, tapi tidak berhasil. 433 00:38:36,800 --> 00:38:40,000 Supaya bisa memperlihatkan foto-foto ini, 434 00:38:41,040 --> 00:38:45,000 saya mengerik permukaan foto 435 00:38:45,080 --> 00:38:49,840 untuk menghilangkan korban dari foto. 436 00:38:50,000 --> 00:38:52,800 Dengan cara ini, fotonya bisa diperlihatkan 437 00:38:53,000 --> 00:38:56,320 tanpa ada alasan fotonya tidak layak diperlihatkan. 438 00:39:18,080 --> 00:39:20,120 Kadang-kadang saya bertanya sendiri: 439 00:39:20,360 --> 00:39:25,520 Siapa yang menentukan kebijakan di Facebook? 440 00:39:26,480 --> 00:39:29,000 Saya ingin bertemu orang-orang itu. 441 00:39:29,160 --> 00:39:31,000 Saya ingin tahu siapa mereka. 442 00:39:31,160 --> 00:39:36,320 Logikanya, latar belakang mereka menentukan cara berpikir mereka. 443 00:39:42,840 --> 00:39:46,840 Anak ini tewas bukan dalam situasi normal. 444 00:39:48,040 --> 00:39:52,560 Ia korban permainan internasional. 445 00:39:53,640 --> 00:39:58,080 Saya ingin memberinya suara yang sangat lantang. 446 00:39:59,080 --> 00:40:00,560 Itu tujuan saya. 447 00:40:02,040 --> 00:40:04,520 Kita harus terus mengusik dunia, 448 00:40:05,040 --> 00:40:07,240 dalam arti yang baik. 449 00:40:36,000 --> 00:40:39,720 Pihak perusahaan semakin berkuasa untuk memutuskan 450 00:40:40,000 --> 00:40:43,000 apa yang dibiarkan dan apa yang harus dihapus. 451 00:40:44,320 --> 00:40:48,520 Pihak perusahaan memanfaatkan hasrat kita akan kemudahan, 452 00:40:48,760 --> 00:40:53,000 keengganan kita untuk berusaha dan mengerjakan hal sulit. 453 00:40:53,160 --> 00:40:57,800 Lama-lama, atau bahkan sudah, 454 00:40:58,040 --> 00:41:03,440 ini berdampak negatif terhadap kemampuan kita untuk berpikir kritis, 455 00:41:04,400 --> 00:41:08,600 mungkin juga terhadap kemampuan kita menghadapi situasi sulit, 456 00:41:09,320 --> 00:41:15,120 sampai akhirnya keragaman pendapat dan situasi sulit dibatasi. 457 00:41:17,840 --> 00:41:19,880 Orang jangan heran 458 00:41:20,080 --> 00:41:24,040 kalau di masa mendatang tersedia lebih sedikit informasi, 459 00:41:24,280 --> 00:41:29,120 lebih sedikit informasi yang mengusik dan memprovokasi, di internet. 460 00:41:30,240 --> 00:41:36,560 Dan saya pikir masyarakat luas akan rugi karenanya. 461 00:42:12,600 --> 00:42:15,800 Sebagai moderator kita harus selalu fokus. 462 00:42:17,560 --> 00:42:19,800 Dalam kehidupan kita juga perlu fokus. 463 00:42:20,600 --> 00:42:22,120 Fokus pada hal-hal baik. 464 00:42:27,520 --> 00:42:31,080 Suatu hari, hal-hal buruk akan lenyap. 465 00:42:32,560 --> 00:42:35,560 Karena ada janji akan kebahagiaan abadi. 466 00:42:41,440 --> 00:42:45,000 Dunia tempat kita hidup sekarang kurang sehat. 467 00:42:47,680 --> 00:42:50,560 Di dunia ini ada kekuatan jahat. 468 00:42:54,040 --> 00:42:56,120 Kita harus waspada. 469 00:42:58,040 --> 00:43:01,000 Kita harus mengendalikannya, baik atau buruk. 470 00:43:12,000 --> 00:43:16,040 TEGAKKAN KEPALA, ANAK MUDA! TUHAN. 471 00:43:23,200 --> 00:43:25,640 GARIS POLISI DILARANG MELINTAS 472 00:43:48,080 --> 00:43:51,000 Yang terlihat di sini adalah petugas polisi. 473 00:43:52,240 --> 00:43:55,000 Di sisi kiri foto 474 00:43:55,240 --> 00:43:58,160 ada orang dengan pistol. 475 00:43:58,840 --> 00:44:02,000 Ini petugas polisi Filipina. 476 00:44:02,720 --> 00:44:06,400 Saya menduga ini soal pembunuhan ekstrayudisial, 477 00:44:06,680 --> 00:44:08,560 seperti diklaim oleh media. 478 00:44:10,480 --> 00:44:12,560 Kita tidak tahu apakah memang polisi 479 00:44:12,800 --> 00:44:15,600 atau pengedar narkoba lain yang membunuh mereka. 480 00:44:16,880 --> 00:44:20,680 Sementara orang yakin presiden kami yang bertanggung jawab. 481 00:44:27,400 --> 00:44:28,360 Duterte, 482 00:44:30,120 --> 00:44:33,080 presiden kami, anti-narkoba. 483 00:44:33,320 --> 00:44:36,000 Dia anti-pelaku kejahatan. 484 00:44:37,880 --> 00:44:42,000 Dan sama seperti presiden kami, yang berusaha sebisa mungkin 485 00:44:42,240 --> 00:44:44,000 untuk melindungi Filipina, 486 00:44:44,200 --> 00:44:47,640 saya melakukan hal yang sama di pekerjaan saya. 487 00:44:47,880 --> 00:44:51,680 Saya melindungi para pengguna aplikasi. 488 00:44:57,480 --> 00:45:00,720 Hitler membantai tiga juta orang Yahudi. 489 00:45:01,440 --> 00:45:06,360 Di sini ada tiga juta pecandu narkoba. 490 00:45:10,120 --> 00:45:12,120 Saya rela membantai mereka. 491 00:45:14,760 --> 00:45:18,280 Kalau Jerman punya Hitler, 492 00:45:18,520 --> 00:45:20,600 Filipina punya saya. 493 00:45:20,840 --> 00:45:22,400 Semoga semua penjahat 494 00:45:22,680 --> 00:45:25,640 menjadi korban saya, 495 00:45:25,880 --> 00:45:30,440 supaya masalah negeri saya teratasi 496 00:45:30,720 --> 00:45:34,600 dan generasi berikut terselamatkan dari kehancuran. 497 00:45:35,560 --> 00:45:36,560 Terima kasih. 498 00:45:50,760 --> 00:45:55,320 Walaupun membunuh itu salah, 499 00:45:55,480 --> 00:46:00,200 cobalah melihat sisi baik pemimpin kami, 500 00:46:01,000 --> 00:46:03,880 daripada fokus ke sisi buruknya. 501 00:46:06,880 --> 00:46:10,040 Saya fokus ke hal-hal baik. 502 00:46:10,200 --> 00:46:13,360 Saya menjauhi hal-hal buruk. 503 00:46:36,680 --> 00:46:40,040 Mocha Girls ini seksi banget! 504 00:46:41,760 --> 00:46:44,080 Kita langsung jatuh hati. 505 00:46:44,840 --> 00:46:46,640 Favorit saya Mocha. 506 00:46:51,160 --> 00:46:54,720 Mocha Girls sangat berpengaruh di Filipina. 507 00:46:55,360 --> 00:46:58,560 Orang dari seluruh dunia menonton mereka lewat media sosial. 508 00:46:58,800 --> 00:47:01,000 Mereka bukan hanya populer, 509 00:47:01,240 --> 00:47:04,000 mereka juga mendukung presiden kami. 510 00:47:04,600 --> 00:47:07,200 Kalian puas dengan Presiden Duterte? 511 00:47:10,320 --> 00:47:14,000 Kita percaya kepada presiden dan kita dukung penuh dia. 512 00:47:39,480 --> 00:47:41,400 Anda sudah melihat fotonya? 513 00:47:42,560 --> 00:47:45,360 Anda sudah melihat foto seksinya di internet? 514 00:47:53,840 --> 00:47:57,160 Dulu laman Facebook dia penuh dengan foto seperti ini, 515 00:47:57,800 --> 00:47:59,600 sebelum ia aktif di dunia politik. 516 00:48:02,760 --> 00:48:08,000 Pada suatu ketika, presiden kami memboikot media. 517 00:48:08,120 --> 00:48:10,640 Ia tidak bersedia diwawancarai oleh media. 518 00:48:10,880 --> 00:48:13,160 Tapi ia mau diwawancarai oleh Mocha Uson. 519 00:48:13,400 --> 00:48:17,280 Kami sepenuhnya mendukung boikot media Bapak. 520 00:48:17,520 --> 00:48:20,680 Orang-orang tergantung kepada Facebook. 521 00:48:21,000 --> 00:48:22,000 Facebook? - Betul, Bapak. 522 00:48:23,240 --> 00:48:26,880 Dalam wawancara itu, Mocha Uson menyanjung-nyanjung presiden, 523 00:48:27,080 --> 00:48:31,320 menyatakan dukungan kepada presiden, dan menyerukan boikot media. 524 00:48:32,000 --> 00:48:34,760 Saya lalu menulis di laman Facebook saya: 525 00:48:35,000 --> 00:48:36,160 "Sungguh menarik 526 00:48:36,400 --> 00:48:40,240 bahwa pertemuan antara presiden dan penggemar setianya 527 00:48:40,480 --> 00:48:42,720 dianggap sebagai jurnalisme." 528 00:48:45,080 --> 00:48:49,000 Ada orang yang menyuruh saya membeli rompi tahan peluru. 529 00:48:49,120 --> 00:48:52,400 Ada yang mengancam bahwa mereka akan menembak kepala saya. 530 00:48:52,600 --> 00:48:55,400 Ada yang mau membakar saya hidup-hidup. 531 00:48:55,600 --> 00:48:58,520 Saya dituduh korup, berprasangka. 532 00:48:58,880 --> 00:49:02,200 Saya disebut "perslacur." 533 00:49:02,440 --> 00:49:04,640 Bahayanya Facebook adalah 534 00:49:07,720 --> 00:49:11,000 orang mudah terjebak untuk memihak 535 00:49:11,160 --> 00:49:14,440 karena menerbitkan sesuatu itu amat mudah, tinggal tulis dan klik. 536 00:49:14,720 --> 00:49:16,680 Orang bisa sangat emosional 537 00:49:17,000 --> 00:49:19,880 dan mudah terbawa oleh informasi sepotong-sepotong 538 00:49:20,120 --> 00:49:22,360 yang membuat mereka mengira mereka sudah mengerti. 539 00:49:22,680 --> 00:49:27,000 Itu sebabnya kita punya Trump atau Duterte, 540 00:49:27,160 --> 00:49:28,600 atau juga Mocha Uson. 541 00:49:29,120 --> 00:49:31,200 Kita menghadapi bahaya kehilangan demokrasi, 542 00:49:31,440 --> 00:49:33,840 karena kita bersedia untuk mencampakkannya. 543 00:49:45,840 --> 00:49:48,200 Di Lembah Silikon berlaku semacam aturan tutup mulut. 544 00:49:48,840 --> 00:49:52,600 Segala sesuatu ditampilkan serba sempurna dan mengilap. 545 00:49:52,800 --> 00:49:56,720 Semua orang berhasil, semuanya beres. 546 00:49:57,000 --> 00:50:00,280 Hal-hal negatif tidak dibahas. 547 00:50:00,520 --> 00:50:03,120 Waktu saya di sana, staf Facebook sangat muda. 548 00:50:03,360 --> 00:50:06,000 Ketika kita muda, kita banyak waktu, 549 00:50:06,160 --> 00:50:09,040 belum ada istri, belum ada anak. 550 00:50:09,280 --> 00:50:11,360 Bisa dibilang, banyak staf yang seolah setengah rumahnya itu, ya, Facebook. 551 00:50:14,600 --> 00:50:18,720 Kita didorong untuk meretas dunia. Dengan cara apa pun. 552 00:50:21,080 --> 00:50:23,280 Facebook pada dasarnya perusahaan teknologi 553 00:50:23,520 --> 00:50:27,000 di bawah orang-orang teknik yang mementingkan produk, infrastruktur, 554 00:50:27,200 --> 00:50:30,000 skala, pengalaman pengguna. 555 00:50:30,120 --> 00:50:31,600 Ini bukan perusahaan media. 556 00:50:31,840 --> 00:50:36,840 Facebook tidak ambil pusing soal konten, itu bukan bagian dari DNA-nya. 557 00:50:37,040 --> 00:50:41,120 Setiap kali diingatkan akan kewajiban yang seharusnya diembannya, 558 00:50:41,360 --> 00:50:44,400 Facebook berkilah, kami hanya menerapkan matematika lewat algoritme. 559 00:50:44,680 --> 00:50:47,240 Kalian memperoleh yang kalian inginkan dan kami tidak ikut campur. 560 00:50:47,520 --> 00:50:51,160 Tapi realitas politik setelah Trump dan Brexit menunjukkan 561 00:50:51,400 --> 00:50:53,320 jawaban ini tidak lagi memadai. 562 00:50:53,600 --> 00:50:57,640 Kita sampai di suatu titik di mana publik tidak lagi menerima itu. 563 00:50:57,880 --> 00:51:01,000 Cepat atau lambat pemerintah akan turun tangan dan mereka tahu itu. 564 00:51:01,320 --> 00:51:06,080 KOMITE INTELIJEN SENAT INVESTIGASI RUSIA DAN PEMILU 2016 565 00:51:06,600 --> 00:51:10,000 Ada laporan pers bahwa Facebook mungkin telah mengembangkan perangkat lunak 566 00:51:10,240 --> 00:51:15,600 yang menghalau munculnya kiriman di umpan berita di wilayah tertentu. 567 00:51:15,840 --> 00:51:18,080 Benarkah itu? Apakah Facebook mengembangkan perangkat lunak 568 00:51:18,320 --> 00:51:23,040 untuk menghalau munculnya kiriman di umpan berita di daerah tertentu? 569 00:51:24,080 --> 00:51:26,640 Ada banyak kasus menyangkut laporan 570 00:51:26,880 --> 00:51:30,120 dari pemerintahan asing mengenai konten 571 00:51:30,360 --> 00:51:33,440 yang ilegal menurut hukum pemerintahan tersebut. 572 00:51:33,720 --> 00:51:37,000 Karena itu kami terapkan "geoblocking" atau "IP-blocking", 573 00:51:37,240 --> 00:51:42,600 agar konten itu tidak muncul di negara bersangkutan, namun tetap... 574 00:51:42,840 --> 00:51:45,880 Jika kritik terhadap pemerintah dilarang di sebuah negara, 575 00:51:46,080 --> 00:51:49,200 Anda dapat memblokir kritik itu 576 00:51:49,440 --> 00:51:52,360 sehingga diizinkan masuk dan beroperasi di negara tersebut? 577 00:51:53,720 --> 00:51:55,800 Dalam... 578 00:51:56,040 --> 00:51:58,760 dalam sebagian besar kasus 579 00:51:59,000 --> 00:52:05,200 menyangkut laporan mengenai konten yang ilegal di tempat tertentu, 580 00:52:05,440 --> 00:52:08,600 tidak ada sangkut paut dengan ekspresi politik. 581 00:52:31,320 --> 00:52:35,720 Facebook menghapus apa pun dari platform media sosial itu, 582 00:52:36,000 --> 00:52:39,800 jika diminta oleh pihak berwenang Turki. 583 00:52:41,240 --> 00:52:45,280 Ekspresi politik atau konten yang bersifat politik 584 00:52:45,520 --> 00:52:49,480 pada umumnya menjadi sebab utama penghapusan itu. 585 00:52:51,520 --> 00:52:57,520 Saya akan tunjukkan contoh konten yang diblokir atau dihapus. 586 00:52:58,000 --> 00:53:00,520 Foto bendara Turki yang dibakar, 587 00:53:01,120 --> 00:53:02,880 peta Kurdistan, 588 00:53:03,080 --> 00:53:06,520 karikatur atau kartun yang mengejek Erdogan. 589 00:53:09,440 --> 00:53:14,160 Apakah di YouTube, Facebook, atau Twitter 590 00:53:14,480 --> 00:53:19,720 Turki adalah negara yang paling banyak memberlakukan restriksi di dunia. 591 00:53:22,280 --> 00:53:25,880 Turki dari dulu negara dengan penyensoran. 592 00:53:26,120 --> 00:53:30,320 Media tradisional semakin dikendalikan oleh pemerintah, 593 00:53:31,000 --> 00:53:35,000 jadi orang Turki berpaling kepada platform media sosial. 594 00:53:35,880 --> 00:53:40,800 Tapi sekarang media sosial terus didesak oleh pihak berwenang Turki 595 00:53:41,040 --> 00:53:43,640 untuk menghapus atau memblokir konten. 596 00:53:45,360 --> 00:53:50,840 Berbagai perusahaan itu mulai membuat kesepakatan dengan pihak pemerintah, 597 00:53:51,800 --> 00:53:56,040 karena tidak ingin diblokir sepenuhnya di Turki, 598 00:53:56,280 --> 00:54:00,000 sebab itu berarti kehilangan pengguna dan peluang bisnis. 599 00:54:36,080 --> 00:54:40,720 YouTube begitu visual dan mampu melintasi batas-batas, 600 00:54:41,000 --> 00:54:47,240 jadi sekitar 2007 kami mulai sering mengalami pemblokiran. 601 00:54:47,480 --> 00:54:50,200 Jika satu pemerintah tidak tahu cara menghubungi kita, 602 00:54:50,440 --> 00:54:53,520 layanan kita yang dimatikan di negara mereka. 603 00:54:58,040 --> 00:55:01,280 Kami perlu agak lama sampai mengetahui sebab mereka gusar. 604 00:55:02,240 --> 00:55:08,200 Akhirnya kami mendapatkan video-video yang dipermasalahkan. 605 00:55:08,440 --> 00:55:10,000 Ada yang menyangkut Atatürk, 606 00:55:10,160 --> 00:55:13,000 ada yang dianggap video teroris, 607 00:55:13,120 --> 00:55:15,760 yang melanggar hukum Turki. 608 00:55:16,000 --> 00:55:23,360 Saya pernah pukul dua dini hari meninjau 67 video 609 00:55:23,600 --> 00:55:25,040 yang mengusik pemerintah, 610 00:55:25,280 --> 00:55:31,000 lalu memutuskan mana yang dihapus dan mana yang dibiarkan. 611 00:55:32,520 --> 00:55:35,160 Ada sejumlah video 612 00:55:35,400 --> 00:55:37,640 yang biasanya takkan dihapus oleh kami, 613 00:55:37,880 --> 00:55:41,120 karena tidak melanggar garis pedoman komunitas, 614 00:55:41,360 --> 00:55:44,080 tapi ternyata ilegal di Turki, 615 00:55:44,320 --> 00:55:49,240 sehingga kami putuskan untuk diblokir berdasarkan alamat IP pengguna Turki. 616 00:55:49,480 --> 00:55:52,720 Jadi, pengguna di Turki takkan bisa melihat video-video itu. 617 00:55:57,680 --> 00:56:01,520 Saya kurang puas dengan solusi itu, tapi begitulah akhirnya. 618 00:56:15,760 --> 00:56:18,320 Ini adalah kesepakatan jalan belakang 619 00:56:18,600 --> 00:56:21,400 yang jarang diketahui oleh publik. 620 00:56:22,440 --> 00:56:29,800 Jika sebuah pemerintah memilih jalan tidak resmi guna meminta perusahaan 621 00:56:30,040 --> 00:56:34,400 membatasi ekspresi tertentu di platform bersangkutan, 622 00:56:35,040 --> 00:56:37,840 lambat laun perusahaan akan terdorong 623 00:56:38,040 --> 00:56:40,320 untuk memutuskan sendiri hal-hal seperti itu. 624 00:56:40,600 --> 00:56:44,840 Pihak perusahaan akan memutuskan makna undang-undang. 625 00:56:45,040 --> 00:56:50,400 Pihak perusahaan yang akan memutuskan mana yang sah dan mana yang tidak, 626 00:56:50,680 --> 00:56:53,280 mana yang ilegal dan mana yang boleh. 627 00:56:53,520 --> 00:56:56,720 Pengalihan wewenang seperti itu kepada pihak perusahaan 628 00:56:57,000 --> 00:57:01,000 seharusnya mengusik orang yang hidup dalam masyarakat demokratis. 629 00:57:41,040 --> 00:57:43,280 Di pekerjaan ini, 630 00:57:43,520 --> 00:57:47,360 kita tidak boleh melakukan satu kesalahan pun. 631 00:57:49,240 --> 00:57:53,800 Satu kesalahan bisa menghancurkan hidup lebih dari satu orang. 632 00:57:54,880 --> 00:57:57,720 Kesalahan itu bisa memicu perang, 633 00:57:58,000 --> 00:58:00,760 bisa memicu perundungan 634 00:58:01,000 --> 00:58:03,360 bisa memicu bunuh diri. 635 00:58:09,160 --> 00:58:13,280 Pendapat dan jalan pikiran para pengguna sebuah aplikasi 636 00:58:13,520 --> 00:58:16,080 tergantung kepada para moderator konten. 637 00:58:16,320 --> 00:58:18,880 Pekerjaan kami tidak mudah. 638 00:58:58,600 --> 00:59:02,400 Sekarang ini semuanya lebih politis. 639 00:59:07,120 --> 00:59:12,000 Negara-negara saling menyerang. 640 00:59:14,080 --> 00:59:16,080 Saya kurang tertarik pada politik. 641 00:59:19,400 --> 00:59:23,320 Setiap orang harus tahu sendiri bagaimana menyikapi sesuatu. 642 00:59:28,440 --> 00:59:33,000 Terkadang saya perlu delapan detik untuk menilai sebuah gambar. 643 00:59:33,760 --> 00:59:36,720 Apakah akan diabaikan atau dihapus. 644 00:59:38,000 --> 00:59:40,040 Setelah itu, kita beralih. 645 00:59:40,280 --> 00:59:42,280 Itulah inti kehidupan: beralih terus. 646 01:00:06,880 --> 01:00:12,160 Sekarang ini, sebagian besar kasus yang saya tinjau berasal dari AS, 647 01:00:12,400 --> 01:00:15,680 dari masa Donald Trump menang pemilu. 648 01:00:16,000 --> 01:00:19,320 Soalnya ada banyak penghinaan terhadap kaum imigran, 649 01:00:20,760 --> 01:00:25,160 terhadap ras lain, seperti orang Meksiko atau orang kulit hitam. 650 01:00:26,000 --> 01:00:28,160 PLANET KAUM MUSLIM 651 01:00:28,320 --> 01:00:30,520 Tapi itu hanya sudut pandang. 652 01:00:32,720 --> 01:00:35,120 Orang bebas berkata apa saja, 653 01:00:35,800 --> 01:00:40,320 karena kami menjunjung kebebasan berbicara di platform kami. 654 01:00:52,040 --> 01:00:54,640 Kalau orang berkata ujaran kebencian berbeda dari kebebasan bicara, 655 01:00:54,880 --> 01:00:56,840 atau kebebasan bicara berbeda dari ujaran kebencian, 656 01:00:57,040 --> 01:00:59,440 mereka sama sekali keliru. 657 01:01:00,000 --> 01:01:02,520 Sebab amandemen pertama konstitusi AS 658 01:01:02,800 --> 01:01:05,880 dibuat khusus untuk hal-hal 659 01:01:06,080 --> 01:01:08,000 yang tidak ingin kita dengar. 660 01:01:08,120 --> 01:01:11,000 Saya ini dari dulu sudah sengak. 661 01:01:11,120 --> 01:01:14,320 Dari dulu saya tukang cari perkara. 662 01:01:14,600 --> 01:01:17,200 Dan akan tetap begini sampai mati. 663 01:01:18,000 --> 01:01:22,600 Platform seperti Facebook itu bebas diakses. 664 01:01:23,480 --> 01:01:29,000 Kita harus cerdik memanfaatkan media sosial seperti YouTube atau Facebook. 665 01:01:30,720 --> 01:01:34,000 Kita harus mampu merekam sesuatu dan mengunggahnya. 666 01:01:38,520 --> 01:01:41,520 Menurut saya, soal pengungsi ini ... 667 01:01:42,080 --> 01:01:45,760 Jangan main buka pintu dan biarkan sembarang orang masuk. 668 01:01:46,000 --> 01:01:49,000 Nanti ketahuan bahwa banyak yang mengidap penyakit, 669 01:01:49,240 --> 01:01:51,680 banyak yang penjahat atau pemerkosa. 670 01:01:52,000 --> 01:01:56,600 Begitu ada polisi syariah yang coba ceramahi istri saya, 671 01:01:56,840 --> 01:01:58,640 saya akan membuatnya babak belur. 672 01:01:58,880 --> 01:02:01,600 "Persetan denganmu, pulanglah 673 01:02:01,840 --> 01:02:04,800 ke negara sialan dari mana kau berasal." 674 01:02:10,400 --> 01:02:14,240 MINGGU KEBEBASAN BERBICARA BERKELEY, CALIFORNIA 675 01:02:22,680 --> 01:02:25,000 Ini Sabo, melapor dari Berkeley. 676 01:02:25,120 --> 01:02:29,880 Senang rasanya melihat para patriot dan orang kanan. 677 01:02:30,080 --> 01:02:33,520 Ada banyak sekali orang hebat di jalanan di sini. 678 01:02:34,000 --> 01:02:37,040 Sementara ini masih banyak polisi. 679 01:02:37,280 --> 01:02:39,440 Tapi entah sampai kapan. 680 01:02:39,720 --> 01:02:44,120 Begitu mereka pergi, saya takkan heran kalau orang mulai berkelahi. 681 01:02:49,320 --> 01:02:52,080 Polarisasi politik di AS begitu parah sehingga ... 682 01:02:52,320 --> 01:02:54,520 pendukung fanatik partai Demokrat sampai tidak bisa 683 01:02:54,760 --> 01:02:57,840 berbincang dengan pendukung fanatik partai Republikan. 684 01:02:58,440 --> 01:03:01,000 Sebabnya banyak. Ini bukan karena Facebook, 685 01:03:01,200 --> 01:03:03,520 tapi Facebook memperuncing situasi. 686 01:03:03,800 --> 01:03:06,760 Dulu setiap warga berhak atas pendapat sendiri, 687 01:03:07,000 --> 01:03:10,880 sekarang setiap warga berhak atas realitas dan kebenaran sendiri, 688 01:03:11,080 --> 01:03:12,640 atas fakta sendiri. 689 01:03:12,880 --> 01:03:15,000 Facebook mendukung fakta sendiri itu 690 01:03:15,240 --> 01:03:17,840 dengan memperlihatkan hanya yang ingin kita dengar, 691 01:03:18,160 --> 01:03:21,320 dan menyaring semua yang tidak ingin kita dengar. 692 01:03:22,360 --> 01:03:24,720 Demokrasi mensyaratkan 693 01:03:25,000 --> 01:03:28,320 adanya aturan perilaku dan kebenaran mendasar 694 01:03:28,600 --> 01:03:30,400 yang melandasi perdebatan. 695 01:03:30,680 --> 01:03:33,000 Kalau tidak ada aturan perilaku, 696 01:03:33,200 --> 01:03:37,320 kalau tidak ada kebenaran mendasar, demokrasi menjadi mustahil. 697 01:03:41,760 --> 01:03:43,680 SAPALAH KAMI – KAMI DENGARKAN! 698 01:03:46,040 --> 01:03:47,880 Aku ada pertanyaan. 699 01:03:48,080 --> 01:03:51,880 Bukan begitu caranya. Tanggapilah apa yang dia katakan. 700 01:03:52,080 --> 01:03:53,400 Aku tidak ingat. 701 01:03:53,680 --> 01:03:56,520 Jelaskan apa pemahamanmu mengenai apa yang dia katakan? 702 01:03:56,800 --> 01:03:59,640 Apakah aku seperti orang kulit putih? - Tunggu dulu! 703 01:03:59,880 --> 01:04:01,200 Tunggu! 704 01:04:01,520 --> 01:04:04,640 Dengarkan aku, ya? - Kenapa kau membentakku? 705 01:04:04,880 --> 01:04:07,280 Kau berkhotbah. - Dan kau bicara. 706 01:04:08,120 --> 01:04:10,160 Coba ulangi apa yang kukatakan. 707 01:04:10,400 --> 01:04:13,040 Kau ... - Coba ulangi apa yang kukatakan. 708 01:04:13,280 --> 01:04:16,400 Aku kira kau frustrasi. Kita perlu orang yang ... 709 01:04:16,680 --> 01:04:20,040 Dan apa yang kukatakan kepadamu? Apa yang kukatakan kepadamu? 710 01:04:20,280 --> 01:04:21,840 Jangan bentak aku! 711 01:04:22,040 --> 01:04:23,640 Apa yang kukatakan kepadamu? 712 01:04:36,600 --> 01:04:40,360 Sementara orang kiri menganggap sikap kami tidak patut. 713 01:04:43,800 --> 01:04:46,680 Kamilah yang berbekal senjata, peluru dan pelatihan. 714 01:04:47,760 --> 01:04:50,320 Dan begitu kami bisa mulai menembak, 715 01:04:50,600 --> 01:04:54,080 segala kekonyolan ini bakal tamat secepatnya. 716 01:05:25,000 --> 01:05:31,880 Saya tidak yakin tanggung jawab atas kebencian di dunia 717 01:05:32,080 --> 01:05:35,360 semata-mata urusan platform media sosial. 718 01:05:35,600 --> 01:05:38,200 Tapi menurut saya, 719 01:05:38,440 --> 01:05:44,000 perusahaan teknologi yang baru perlu benar-benar merenungkan 720 01:05:45,520 --> 01:05:51,160 apakah keterlibatan seperti itu patut didukung. 721 01:05:51,400 --> 01:05:53,760 Apakah telah terbentuk sistem-sistem 722 01:05:54,000 --> 01:06:01,320 yang mendorong dan menjunjung ujaran yang sangat keterlaluan, 723 01:06:01,600 --> 01:06:07,280 bukannya ujaran yang meningkatkan saling pengertian. 724 01:06:19,600 --> 01:06:23,680 Salah satu kesalahpahaman adalah menerima tabiat manusia apa adanya 725 01:06:24,000 --> 01:06:28,120 sambil menganggap teknologi itu netral dan tidak menggaungkan apa pun. 726 01:06:28,360 --> 01:06:30,000 Tapi ini tidak benar. 727 01:06:30,240 --> 01:06:32,800 Sesungguhnya teknologi memiliki bias. 728 01:06:33,040 --> 01:06:34,880 Teknologi memiliki tujuan, 729 01:06:35,080 --> 01:06:39,200 yaitu menarik perhatian sebanyak mungkin orang. 730 01:06:39,440 --> 01:06:42,320 Apa yang bisa menarik miliaran orang 731 01:06:42,600 --> 01:06:46,800 dan mampu meraih dan mempertahankan perhatian mereka? 732 01:06:47,040 --> 01:06:50,080 Dan bukan hanya itu, tapi juga mendorong mereka untuk berbagi? 733 01:06:50,320 --> 01:06:53,520 Ternyata kemurkaan sangat cocok untuk itu. 734 01:06:53,760 --> 01:06:55,520 Apakah dikehendaki atau tidak, 735 01:06:55,800 --> 01:07:01,120 Facebook lebih banyak menarik perhatian lewat umpan penuh kemurkaan, 736 01:07:01,360 --> 01:07:03,520 dibandingkan kalau kiriman seperti itu tidak ditampilkan. 737 01:07:04,000 --> 01:07:06,440 Yang digaungkan adalah apa yang paling memecah-belah, 738 01:07:06,720 --> 01:07:09,320 apa yang paling parah dan paling menakutkan. 739 01:07:09,640 --> 01:07:14,720 Segenap lingkungan itu diarahkan untuk mengungkapkan sisi terburuk kita. 740 01:07:21,240 --> 01:07:23,120 Saya mulai dengan Anda, Pak Stretch. 741 01:07:25,000 --> 01:07:29,240 Pasar Facebook yang tumbuh paling pesat ada di negara-negara berkembang. 742 01:07:29,600 --> 01:07:35,800 Facebook kini menjadi sarang ujaran kebencian terhadap Rohingya, 743 01:07:36,360 --> 01:07:38,400 kaum pengungsi di Myanmar. 744 01:07:40,040 --> 01:07:45,000 Mereka sangat rentan dan dipersekusi dengan kekerasan. 745 01:07:45,200 --> 01:07:47,880 Para pemimpin negara itu tidak mengambil tindakan apa pun. 746 01:07:48,520 --> 01:07:50,440 Apa langkah Anda untuk memastikan 747 01:07:50,720 --> 01:07:53,680 bahwa platform Anda tidak digunakan 748 01:07:54,000 --> 01:07:56,280 untuk merongrong demokrasi sebuah negara, 749 01:07:56,520 --> 01:08:00,000 apalagi taruhannya bukan suara pemilih, 750 01:08:00,120 --> 01:08:01,880 melainkan nyawa orang? 751 01:08:03,560 --> 01:08:06,120 Terima kasih untuk pertanyaan ini, Senator. 752 01:08:06,480 --> 01:08:10,440 Kami berkewajiban untuk memastikan tidak ada penyalahgunaan ... 753 01:08:10,720 --> 01:08:13,320 Kita bicara soal nyawa manusia. - Saya ... 754 01:08:15,240 --> 01:08:17,440 Saya tidak menyangkal itu. 755 01:08:17,680 --> 01:08:21,240 Kami harus berkontribusi untuk mengangkat permasalahan itu, 756 01:08:21,480 --> 01:08:24,520 tapi tidak boleh digunakan sebagai alat 757 01:08:24,760 --> 01:08:28,000 untuk mengobarkan kebencian atau mengagungkan kekerasan. 758 01:08:34,680 --> 01:08:35,880 Anda lihat ini? 759 01:08:36,600 --> 01:08:39,040 "Berantas mereka, bunuh mereka." 760 01:08:39,280 --> 01:08:41,080 "Bunuh Kala tidak apa-apa." 761 01:08:41,840 --> 01:08:45,040 "Kala" artinya seperti "nigger" di Amerika. 762 01:08:45,400 --> 01:08:49,360 Akun ini memiliki sekitar 400.000 pengikut di Facebook. 763 01:08:55,320 --> 01:09:00,560 Facebook membantu menebar kebencian terhadap Rohingya. 764 01:09:02,760 --> 01:09:05,240 Menurut PBB, Rohingya itu 765 01:09:05,480 --> 01:09:08,720 minoritas yang paling dipersekusi di seluruh dunia. 766 01:09:14,880 --> 01:09:18,080 Di Myanmar, internet adalah identik dengan Facebook. 767 01:09:20,600 --> 01:09:24,320 Sebagian besar orang bahkan tidak tahu apa itu E-Mail. 768 01:09:29,040 --> 01:09:32,160 Orang menyebarluaskan informasi palsu di Facebook. 769 01:09:33,080 --> 01:09:36,640 Orang akan populer kalau mengirim sesuatu yang anti-Rohingya 770 01:09:36,880 --> 01:09:41,000 dan akan banyak di-like, dikomentari dan di-share. 771 01:09:41,600 --> 01:09:44,520 Kiriman itu akan dibagikan ribuan kali dalam satu jam. 772 01:09:44,800 --> 01:09:48,000 Jadi orang menganggapnya sebagai informasi autentik. 773 01:09:58,000 --> 01:10:02,080 Mayoritas orang di Myanmar membenci Rohingya. 774 01:10:03,800 --> 01:10:06,760 Pola pikir mereka semakin parah dari hari ke hari. 775 01:10:24,720 --> 01:10:30,360 Di Bangladesh, lebih dari satu juta Rohingya berlindung di kamp pengungsi. 776 01:10:46,160 --> 01:10:50,200 Bayi saya yang berumur dua tahun dirampas dan dilempar ke api. 777 01:10:51,120 --> 01:10:54,080 Putra saya yang berumur lima tahun dibuang ke sungai. 778 01:10:54,320 --> 01:10:57,600 Kami dipukuli sampai patah tulang lalu dibakar. 779 01:10:57,840 --> 01:11:02,840 Kepala saya dihajar dengan batang bambu. 780 01:11:03,840 --> 01:11:06,280 Kuping saya diiris. 781 01:11:07,760 --> 01:11:11,400 Saya diperkosa sambil dipegangi oleh orang lain. 782 01:11:11,640 --> 01:11:14,440 Waktu putri saya mulai menangis, dia dibacok tiga kali. 783 01:11:31,440 --> 01:11:34,040 Facebook harus menghentikan kebencian ini. 784 01:12:06,680 --> 01:12:11,520 Genosida Rohingya di Myanmar memang ... 785 01:12:12,160 --> 01:12:16,000 Ini hanya satu dari sekian banyak dampak samping 786 01:12:16,120 --> 01:12:19,120 yang dipicu oleh sejumlah platform 787 01:12:19,360 --> 01:12:22,240 yang dibuat di California sini, oleh segelintir orang 788 01:12:22,480 --> 01:12:24,600 yang mirip saya: 789 01:12:24,840 --> 01:12:27,440 anak muda, kulit putih, insinyur, 790 01:12:27,680 --> 01:12:31,280 dengan keputusan yang, apakah dipikir matang atau tidak, 791 01:12:31,440 --> 01:12:34,240 memengaruhi jalan pikiran dua miliar orang. 792 01:12:34,480 --> 01:12:37,280 Orang-orang di Myanmar tidak punya kendali terhadap ini. 793 01:12:37,520 --> 01:12:42,880 Mereka tidak bisa melaporkan bahwa berita bohong mengakibatkan genosida. 794 01:12:43,120 --> 01:12:45,880 Mereka ada di Facebook setiap hari, 795 01:12:46,080 --> 01:12:49,320 dan mereka melihat betapa berita bohong memperparah genosida, 796 01:12:49,600 --> 01:12:53,680 tapi tidak punya cara untuk melaporkannya agar ditangani. 797 01:12:54,000 --> 01:12:58,000 Kita harus sangat berhati-hati dengan apa yang kita ciptakan. 798 01:13:24,600 --> 01:13:28,520 PEKERJAAN INI MERUSAK OTAK, MEMBUAT KITA MENGANGGAP KEKERASAN ITU BIASA. 799 01:13:28,760 --> 01:13:32,000 MEMBUAT KITA MENGANGGAP MEMBUNUH DAN MELEDAKKAN ORANG ITU BIASA. 800 01:13:32,160 --> 01:13:35,800 KITA MELIHAT ORANG TERKENA BOM DAN ANGGOTA BADANNYA BERSERAKAN 801 01:13:36,040 --> 01:13:39,240 DAN KEPALA DAN KAKINYA BETERBANGAN. 802 01:13:54,800 --> 01:13:58,040 SAYA BISA SAJA MELEWATI VIDEO SEPERTI INI, 803 01:13:58,280 --> 01:14:04,200 TAPI KALAU KETAHUAN OLEH KENDALI MUTU, ITU TETAP DIANGGAP KESALAHAN. 804 01:14:04,440 --> 01:14:09,000 SAYA HANYA BOLEH MELAKUKAN 3 KESALAHAN DALAM SATU BULAN. 805 01:14:11,600 --> 01:14:14,200 Banyak foto yang pernah saya lihat, 806 01:14:16,360 --> 01:14:18,360 saya tidak ingat lagi. 807 01:14:26,040 --> 01:14:29,800 Beberapa video terukir dalam ingatan. 808 01:14:33,680 --> 01:14:35,520 Mula-mula kami kira itu lelucon. 809 01:14:35,760 --> 01:14:38,000 Kami tidak tahu apakah itu sungguhan. 810 01:14:39,080 --> 01:14:44,440 Seseorang mau gantung diri dengan tali. 811 01:14:46,400 --> 01:14:48,640 Itu live, bukan diunggah. 812 01:14:48,880 --> 01:14:51,120 Betul-betul live, ditonton oleh banyak orang. 813 01:14:51,880 --> 01:14:53,520 Mungkin ada ribuan. 814 01:14:53,800 --> 01:14:55,880 Ada komentar seperti: 815 01:14:58,440 --> 01:15:01,600 "Jangan lakukan itu, jangan gantung diri!" 816 01:15:02,320 --> 01:15:04,240 "Jangan bunuh diri!" 817 01:15:05,240 --> 01:15:08,240 Ada yang bergurau: "Ayo, lakukan saja! Cepatlah!" 818 01:15:12,000 --> 01:15:16,680 Selama dia tidak bunuh diri, 819 01:15:17,000 --> 01:15:20,320 kami tidak boleh menghentikan live streamnya. 820 01:15:21,280 --> 01:15:25,400 Sebab kalau dihentikan, kami yang akan mendapat masalah. 821 01:15:26,120 --> 01:15:29,120 Itu akan menjadi masalah mutu di pihak kami. 822 01:15:36,880 --> 01:15:38,040 Waktu ... 823 01:15:39,360 --> 01:15:43,160 Waktu dia naik ke atas kursi 824 01:15:43,400 --> 01:15:47,680 dan memasang tali di lehernya, 825 01:15:48,400 --> 01:15:54,040 kami mulai khawatir bahwa dia bersungguh-sungguh. 826 01:15:59,800 --> 01:16:02,000 Lalu dia bunuh diri. 827 01:16:03,000 --> 01:16:05,000 Dia menendang kursinya. 828 01:16:07,040 --> 01:16:08,440 Dia ... 829 01:16:08,680 --> 01:16:10,600 Dia meregang nyawa, 830 01:16:10,840 --> 01:16:14,320 tapi lehernya sudah patah. 831 01:17:33,080 --> 01:17:36,000 Kita jangan sampai terpengaruh oleh video-video itu. 832 01:17:38,000 --> 01:17:40,280 Tapi reaksi orang berbeda-beda. 833 01:17:42,200 --> 01:17:46,360 Ada orang yang tidak bisa lupa apa yang mereka lihat. 834 01:17:56,160 --> 01:17:58,680 KAMI BERTEMAN BAIK. 835 01:17:59,000 --> 01:18:01,200 SAYA MERASA KHAWATIR 836 01:18:01,440 --> 01:18:04,040 WAKTU DIA TIDAK MASUK KERJA. 837 01:18:07,240 --> 01:18:11,000 REKAN SATU TIM SAYA GANTUNG DIRI. 838 01:18:13,040 --> 01:18:15,480 WAKTU SAYA KE RUMAHNYA, 839 01:18:15,720 --> 01:18:17,000 SAYA MENEMUKANNYA SUDAH TERGANTUNG. 840 01:18:18,400 --> 01:18:20,800 DIA SPESIALIS VIDEO LIVE, 841 01:18:21,040 --> 01:18:23,600 DI MANA ORANG MENYAKITI DIRI SENDIRI. 842 01:18:24,080 --> 01:18:27,520 INI AKIBAT BURUK DARI MODERASI KONTEN. 843 01:18:27,760 --> 01:18:30,520 PIHAK PERUSAHAAN MENUTUP-NUTUPINYA. 844 01:18:40,600 --> 01:18:46,520 Waktu saya di sana, pernah ada kasus bunuh diri. 845 01:18:54,040 --> 01:18:59,120 Saya bertugas menangani dan mendiagnosis 846 01:18:59,480 --> 01:19:03,160 semua masalah kesehatan mental. 847 01:19:05,000 --> 01:19:09,800 Laki-laki yang bunuh diri itu bergabung di perusahaan sejak awal. 848 01:19:14,040 --> 01:19:19,320 Waktu saya bicara dengannya, sorot matanya pilu. 849 01:19:20,000 --> 01:19:24,760 Saya tanya apa saya bisa membantu, tapi dia tidak enggan mengaku 850 01:19:25,000 --> 01:19:26,600 bahwa dia punya masalah. 851 01:19:31,000 --> 01:19:35,320 Dia gantung diri, di rumahnya, di depan laptopnya, 852 01:19:37,280 --> 01:19:41,800 dengan tali di leher. 853 01:19:42,600 --> 01:19:44,840 Dengan laptop di hadapannya. 854 01:19:51,120 --> 01:19:55,000 Saya kecewa, bahwa saya tidak bisa menolongnya. 855 01:19:57,200 --> 01:20:01,400 Tiga kali dia menghubungi atasannya 856 01:20:01,680 --> 01:20:03,840 dan minta dipindahkan. 857 01:20:04,040 --> 01:20:11,000 Kalau dia sudah minta dipindahkan, manajemen seharusnya bertindak! 858 01:20:12,040 --> 01:20:14,800 Bisa jadi itu teriakan minta tolong. 859 01:20:33,360 --> 01:20:36,320 KITA BERIMAN KEPADA TUHAN 860 01:20:50,040 --> 01:20:53,400 Kalau ada yang kita pentingkan dalam hidup kita, 861 01:20:54,560 --> 01:20:58,280 Kita harus terus menyerahkan sebagian diri kita 862 01:20:58,520 --> 01:21:01,640 dan berkorban untuk hal tersebut. 863 01:21:10,800 --> 01:21:12,520 Saya berkorban, ya. 864 01:21:12,800 --> 01:21:14,840 Pengorbanan itu selalu ada. 865 01:21:16,200 --> 01:21:19,640 Dan akan selalu menjadi bagian dari hidup saya. 866 01:21:24,520 --> 01:21:29,360 RITUAL JUMAT AGUNG DI DEKAT MANILA 867 01:21:45,880 --> 01:21:49,600 Tugas saya adalah menghalau gambar yang mengandung dosa. 868 01:21:51,480 --> 01:21:53,320 Sayalah yang mencegahnya. 869 01:21:56,040 --> 01:21:57,840 Kita harus mencegah dosa 870 01:21:58,040 --> 01:22:01,600 agar jangan menyebar di media sosial. 871 01:22:24,000 --> 01:22:27,200 Saya berbeda dibandingkan dulu. 872 01:22:28,320 --> 01:22:33,240 Sepertinya ada virus dalam diri saya, 873 01:22:33,760 --> 01:22:39,600 yang pelan-pelan menembus otak saya, 874 01:22:39,840 --> 01:22:43,880 dan tubuh saya bereaksi... 875 01:22:44,080 --> 01:22:47,600 Saya setiap hari bekerja sebagai moderator konten. 876 01:22:48,240 --> 01:22:50,120 Lalu saya berhenti. 877 01:22:51,040 --> 01:22:54,000 Saya harus berhenti. Ada yang tidak benar di sini. 878 01:23:09,200 --> 01:23:10,800 Suatu hari saya bertanya sendiri: 879 01:23:11,040 --> 01:23:12,640 Untuk apa saya melakukan ini? 880 01:23:18,280 --> 01:23:21,440 Hanya agar orang-orang merasa aman di dunia maya? 881 01:23:22,600 --> 01:23:26,520 Padahal pekerjaan kita sehari-hari pun tidak aman untuk kita. 882 01:23:32,000 --> 01:23:34,040 Kita memperbudak diri sendiri. 883 01:23:35,400 --> 01:23:37,640 Kita jangan menganggap bahwa itu tidak apa-apa, 884 01:23:37,880 --> 01:23:39,240 sebab nyatanya tidak begitu. 885 01:23:54,040 --> 01:23:57,000 Kita harus menghadapi kenyataan. 886 01:24:51,720 --> 01:24:55,360 Diperlukan keberanian untuk memilih harapan, bukan ketakutan. 887 01:24:56,520 --> 01:25:01,120 Untuk berkata kita bisa menjadikan sesuatu lebih baik dari sebelumnya. 888 01:25:01,600 --> 01:25:05,160 Kita harus optimistis untuk percaya bahwa kita bisa mengubah dunia. 889 01:25:05,840 --> 01:25:09,240 Kita melakukan hal itu, koneksi demi koneksi. 890 01:25:11,000 --> 01:25:13,600 Dengan inovasi demi inovasi. 891 01:25:14,600 --> 01:25:17,880 Hari demi hari demi hari. 892 01:25:19,880 --> 01:25:23,880 Karena itu saya merasa bahwa pekerjaan yang kita lakukan bersama 893 01:25:24,080 --> 01:25:26,800 kini lebih penting dibandingkan kapan pun sebelumnya. 894 01:26:02,520 --> 01:26:07,640 PENGAMBILAN GAMBAR DILAKUKAN DI SALAH SATU LANTAI TAKTERPAKAI DI KANTOR ASLI DI MANILA. 895 01:26:07,800 --> 01:26:11,560 SEMUA MODERATOR KONTEN YANG TAMPIL TELAH BERHENTI SAAT PROGRAM DISIARKAN. 896 01:26:11,720 --> 01:26:13,560 ADA JUGA YANG TERPAKSA ANONIM. 897 01:26:13,720 --> 01:26:16,280 SEMUA CUPLIKAN DI DALAM FILM 898 01:26:16,440 --> 01:26:19,320 BERASAL DARI KOMUNIKASI KAMI DENGAN MEREKA. 899 01:26:20,400 --> 01:26:24,440 FACEBOOK, TWITTER, DAN YOUTUBE TIDAK MENANGGAPI PERMINTAAN WAWANCARA. 900 01:26:24,600 --> 01:26:27,880 UCAPAN TERIMA KASIH KAMI TUJUKAN KEPADA PARA MODERATOR KONTEN 901 01:26:28,040 --> 01:26:30,360 ATAS KEBERANIAN MEREKA BERBAGI CERITA DENGAN KITA. 73381

Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.