Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated:
1
00:00:25,480 --> 00:00:30,800
LEBIH DARI 3 MILIAR ORANG
TERHUBUNG LEWAT MEDIA SOSIAL.
2
00:00:32,360 --> 00:00:36,640
SETIAP MENIT, 500 JAM VIDEO
DIUNGGAH KE YOUTUBE,
3
00:00:36,800 --> 00:00:41,160
450.000 CUITAN KE TWITTER
DAN 2,5 JUTA KIRIMAN KE FACEBOOK.
4
00:00:42,400 --> 00:00:47,200
TIDAK SEMUA YANG DIUNGGAH PENGGUNA
DIBIARKAN OLEH PEMILIK PLATFORM.
5
00:01:10,200 --> 00:01:13,320
TANPA KAMI, INTERNET
AKAN KACAU-BALAU.
6
00:01:13,880 --> 00:01:16,160
KAMI MENGHAPUS FOTO,
VIDEO DAN TEKS,
7
00:01:16,320 --> 00:01:19,880
YANG MELANGGAR ATURAN
MEDIA SOSIAL.
8
00:01:20,040 --> 00:01:25,680
SEBAGIAN BESAR KONTEN YANG KAMI PANTAU
DI MANILA BERASAL DARI EROPA DAN AS.
9
00:01:34,000 --> 00:01:37,200
ADA UNIT-UNIT LEBIH KECIL
DI NEGARA-NEGARA LAIN,
10
00:01:37,360 --> 00:01:39,720
TAPI FILIPINA
ADALAH YANG TERBESAR.
11
00:01:39,880 --> 00:01:42,080
ADA RIBUAN PEKERJA DI SINI.
12
00:01:42,240 --> 00:01:45,360
KALAU PERUSAHAAN SAMPAI TAHU
BAHWA SAYA BICARA DENGAN KALIAN,
13
00:01:45,520 --> 00:01:47,600
SAYA AKAN MENDAPAT MASALAH.
14
00:01:47,760 --> 00:01:51,240
KLIEN MENGANCAM
AKAN MEMBATALKAN SELURUH ORDER.
15
00:02:09,520 --> 00:02:14,000
Saya harus tetap anonim,
karena kami sudah teken kontrak.
16
00:02:15,000 --> 00:02:18,880
Kami tidak boleh mengatakan
untuk siapa kami bekerja.
17
00:02:20,000 --> 00:02:21,680
Saya bicara dengan kalian karena
18
00:02:21,840 --> 00:02:24,280
dunia perlu tahu
19
00:02:24,440 --> 00:02:26,160
bahwa kami ada.
20
00:02:27,760 --> 00:02:31,040
Ada yang mengawasi media sosial.
21
00:02:31,680 --> 00:02:37,040
Kami berupaya keras
agar platform ini aman untuk semua.
22
00:02:47,640 --> 00:02:49,000
Hapus.
23
00:02:49,400 --> 00:02:50,760
Abaikan.
24
00:02:51,360 --> 00:02:52,360
Abaikan.
25
00:02:52,520 --> 00:02:53,840
Hapus.
26
00:02:54,000 --> 00:02:54,760
Hapus.
27
00:02:55,000 --> 00:02:55,800
Abaikan.
28
00:02:56,000 --> 00:02:57,000
Abaikan.
29
00:03:03,400 --> 00:03:06,640
Kami hadir untuk
menghubungkan semua orang.
30
00:03:06,800 --> 00:03:09,040
Untuk sebuah komunitas global.
31
00:03:10,040 --> 00:03:14,680
Untuk memberi semua orang kesempatan
berbagi apa pun dengan siapa pun.
32
00:03:16,000 --> 00:03:19,800
Mark Zuckerberg kini ibarat editor
halaman depan semua koran di dunia.
33
00:03:23,760 --> 00:03:29,440
Platform media sosial perlu dan ingin
kontrol penuh atas apa yang terjadi.
34
00:03:30,120 --> 00:03:33,240
Populasi Facebook lebih besar dari
populasi negara mana pun di dunia.
35
00:03:33,400 --> 00:03:37,360
Jadi, ketika bertindak sebagai sensor,
Facebook berkuasa ibarat negara.
36
00:03:41,600 --> 00:03:42,880
Tanpa media sosial,
37
00:03:43,040 --> 00:03:44,800
pesan saya takkan tersiar.
38
00:03:45,000 --> 00:03:48,640
Bisa jadi saya malah
takkan berdiri di sini.
39
00:03:52,640 --> 00:03:56,040
Ada puluhan ribu orang
yang melakukan pekerjaan ini.
40
00:03:56,440 --> 00:03:57,880
Semuanya berlangsung tersembunyi,
41
00:03:58,120 --> 00:04:00,040
dilaksanakan oleh orang-orang anonim,
42
00:04:00,240 --> 00:04:03,760
dan mereka mengambil keputusan
editorial yang berdampak luas.
43
00:04:35,720 --> 00:04:38,760
MANILA, FILIPINA
44
00:05:03,000 --> 00:05:05,160
Kami tidak mencari penghargaan.
45
00:05:07,200 --> 00:05:09,160
Kami seperti polisi.
46
00:05:11,560 --> 00:05:16,000
Tujuan utama kami adalah
membuat platform sesehat mungkin.
47
00:05:17,000 --> 00:05:18,800
Ada yang harus menjaganya,
48
00:05:19,480 --> 00:05:21,120
sama seperti di dunia nyata.
49
00:05:33,400 --> 00:05:37,440
Saya sangat menyukai pekerjaan saya.
50
00:05:42,560 --> 00:05:45,480
Moderator konten itu ibarat penjaga.
51
00:05:46,080 --> 00:05:47,120
Kami melindungi para pengguna.
52
00:05:48,320 --> 00:05:49,760
Itulah pekerjaan saya.
53
00:05:55,600 --> 00:05:58,640
Kami tidak boleh
membocorkan apa pun.
54
00:05:58,880 --> 00:06:03,400
Tidak ada yang boleh tahu
tentang pekerjaan ini.
55
00:06:04,720 --> 00:06:08,520
Nanti orang akan penasaran.
56
00:06:37,520 --> 00:06:40,840
Saya sudah enam tahun
bekerja sebagai moderator konten.
57
00:06:42,160 --> 00:06:46,000
Saya sudah mengamati tidak terhitung
banyaknya video dan gambar.
58
00:06:49,760 --> 00:06:53,440
Gambar-gambar ditampilkan di monitor.
59
00:06:54,120 --> 00:06:56,040
Lalu kami menyisir semuanya
60
00:06:56,280 --> 00:07:02,760
dan menghapus gambar-gambar
yang melanggar garis pedoman.
61
00:07:06,520 --> 00:07:12,480
Kuota harian adalah 25.000 gambar.
Per hari kami amati 25.000 gambar.
62
00:07:14,760 --> 00:07:18,040
Bisa jadi saya ada dalam
Guinness-Book of Records.
63
00:07:29,200 --> 00:07:33,240
Tugas utama moderator konten adalah
64
00:07:34,640 --> 00:07:36,800
menyingkirkan sampah.
65
00:07:37,040 --> 00:07:39,000
Itu satu-satunya tujuan kami.
66
00:07:39,840 --> 00:07:44,000
Itu tanggung jawab utama kami:
67
00:07:44,160 --> 00:07:49,800
memastikan hal-hal mencurigakan
tidak diunggah.
68
00:07:50,040 --> 00:07:51,440
Itu saja.
69
00:08:15,320 --> 00:08:19,280
TUGAS KAMI ADALAH MENGAWASI DAN
MEMODERASI KONTEN DARI PENGGUNA.
70
00:08:19,520 --> 00:08:20,560
SAYA MEMBANTU ORANG LAIN.
71
00:08:20,800 --> 00:08:24,160
SAYA MENYETOP PENYEBARLUASAN
EKSPLOITASI ANAK.
72
00:08:24,400 --> 00:08:28,560
SAYA HARUS MENGIDENTIFIKASI TERORISME.
HARUS MEMBENDUNG PERUNDUNGAN SIBER.
73
00:08:28,800 --> 00:08:32,160
ALGORITME TIDAK BISA
MENGGANTIKAN PEKERJAAN KAMI.
74
00:09:07,360 --> 00:09:10,000
Saya mulai di Google tahun 2004.
75
00:09:10,640 --> 00:09:12,360
Saya merasa mendapat privilese
76
00:09:12,600 --> 00:09:17,760
untuk turut mengembangkan
infrastruktur di dunia saat ini.
77
00:09:19,200 --> 00:09:23,280
Menjadi bagian dari sesuatu
yang begitu dahsyat
78
00:09:23,520 --> 00:09:27,760
dan punya potensi untuk mengubah
kehidupan menjadi lebih baik,
79
00:09:28,880 --> 00:09:31,720
itu sesuatu yang luar biasa
dan merupakan privilese.
80
00:09:33,200 --> 00:09:38,400
Kita berangkat dari pertanyaan
apa yang boleh ada di platform kita,
81
00:09:38,880 --> 00:09:40,560
dan apa yang tidak patut.
82
00:09:41,080 --> 00:09:43,440
Apa yang tidak kita kehendaki
di dalam komunitas kita?
83
00:09:44,000 --> 00:09:45,480
Dan itu berarti menentukan pilihan.
84
00:09:45,760 --> 00:09:52,040
Ada pilihan untuk berkata, tidak ada
yang boleh diunggah sebelum ditinjau.
85
00:09:52,280 --> 00:09:53,720
Itu sebuah pilihan.
86
00:09:54,000 --> 00:09:56,600
Atau, saya akan biarkan
sebagian besar konten
87
00:09:56,840 --> 00:10:00,400
dan hanya meninjau hal-hal
yang dilaporkan.
88
00:10:00,680 --> 00:10:03,000
Itu juga sebuah pilihan.
89
00:10:03,840 --> 00:10:08,480
Kalau kita mementingkan
keragaman pendapat,
90
00:10:09,480 --> 00:10:13,520
kalau kita ingin agar platform yang
demokratis bisa benar-benar hidup,
91
00:10:13,800 --> 00:10:19,160
saya pikir, kita akan memilih
kebijakan yang cenderung liberal.
92
00:10:22,360 --> 00:10:23,760
Apakah Anda bersumpah
bahwa kesaksian Anda
93
00:10:24,000 --> 00:10:27,200
mengungkapkan kebenaran secara utuh,
tanpa ditambah-tambahi?
94
00:10:29,400 --> 00:10:31,040
Terima kasih.
95
00:10:32,000 --> 00:10:33,400
Nicole Wong,
96
00:10:33,680 --> 00:10:39,400
wakil pimpinan bagian hukum dan
pejabat privasi tertinggi di Google.
97
00:10:40,040 --> 00:10:41,600
Nyonya Wong,
98
00:10:41,840 --> 00:10:46,480
staf kami mengakses internet dan
memasukkan kata "praremaja" plus
99
00:10:47,000 --> 00:10:49,000
"seks" plus "video".
100
00:10:50,080 --> 00:10:51,840
Melihat situs-situs Google saja...
101
00:10:53,000 --> 00:10:56,400
itu seperti
daftar pornografi hardcore.
102
00:10:56,680 --> 00:10:59,240
Ada permainan seks,
seks praremaja
103
00:10:59,480 --> 00:11:01,240
dan pornografi remaja...
104
00:11:01,480 --> 00:11:03,240
Ada beberapa level
yang harus kami tinjau.
105
00:11:03,480 --> 00:11:06,120
Memang mengerikan
bahwa ada situs web seperti itu,
106
00:11:06,360 --> 00:11:08,240
dan kita perlu...
- Kita semua sepakat,
107
00:11:08,480 --> 00:11:12,120
tapi perusahaan Anda tampaknya paling
enggan memblokir atau mencegahnya.
108
00:11:12,360 --> 00:11:13,760
Itu maksud saya.
109
00:11:14,000 --> 00:11:19,800
Di samping peninjauan berjenjang yang
kami lakukan untuk menyaring,
110
00:11:20,040 --> 00:11:22,720
kami juga memiliki mesin pencari
terbesar di Internet.
111
00:11:23,000 --> 00:11:25,080
Jadi seharusnya lebih mudah
menemukan konten seperti itu
112
00:11:25,320 --> 00:11:28,840
dan memblokirnya, mengingat
Anda mesin pencari terbesar.
113
00:11:29,040 --> 00:11:33,360
Kami memiliki mesin pencari terbesar
dan amat banyak laman untuk ditinjau.
114
00:11:33,600 --> 00:11:38,520
Staf kami terlatih kami untuk melacak
dan menyingkirkan situs seperti itu.
115
00:11:38,800 --> 00:11:41,000
Kami berusaha sebaik mungkin
- Oke.
116
00:11:52,440 --> 00:11:57,000
Di awal pelatihan saya tidak tahu
apa itu moderator konten.
117
00:11:57,240 --> 00:11:59,120
Itu kali pertama saya mendengar
istilah tersebut.
118
00:12:01,040 --> 00:12:05,080
Kami diberi tahu apa yang akan kami
lihat, alat apa yang akan kami pakai,
119
00:12:05,320 --> 00:12:08,040
dan apa yang menanti kami
dalam pekerjaan ini.
120
00:12:14,160 --> 00:12:15,800
Saya masih ingat ...
121
00:12:16,440 --> 00:12:19,240
bahwa saya mau langsung berhenti saja.
122
00:12:24,480 --> 00:12:29,040
Hal paling mengejutkan yang pernah
saya lihat sebagai moderator konten
123
00:12:29,240 --> 00:12:33,440
adalah anak kecil lagi mengulum penis
di sebuah bilik kerja.
124
00:12:35,000 --> 00:12:37,200
Anak itu telanjang bulat.
125
00:12:37,440 --> 00:12:41,640
Anak perempuan, kira-kira enam tahun,
126
00:12:41,880 --> 00:12:43,360
dengan penis di mulut.
127
00:12:43,600 --> 00:12:46,000
Pada foto lain
128
00:12:46,160 --> 00:12:49,800
anak perempuan itu terbaring
di sebuah tempat tidur
129
00:12:50,040 --> 00:12:52,520
dengan sperma berceceran di sini.
130
00:12:53,320 --> 00:12:58,360
Menurut saya itu
betul-betul tidak layak dilihat.
131
00:12:58,600 --> 00:13:00,880
Saya langsung mendatangi atasan saya
132
00:13:01,120 --> 00:13:04,320
dan memberi tahunya
bahwa saya tidak sanggup.
133
00:13:04,560 --> 00:13:06,600
Saya tidak sanggup melihat anak itu.
134
00:13:06,840 --> 00:13:09,840
Dia hanya bilang,
itu bagian dari tugas saya
135
00:13:10,080 --> 00:13:12,520
dan saya sudah terikat kontrak.
136
00:13:36,000 --> 00:13:40,000
Kalau kita bisa hilangkan semua rintangan
dan mengundang seluruh dunia
137
00:13:40,160 --> 00:13:42,440
untuk menampilkan dirinya,
138
00:13:42,720 --> 00:13:44,480
untuk mengunggah segenap hidupnya,
139
00:13:44,760 --> 00:13:47,160
berbagi apa saja yang bisa dibagikan,
140
00:13:47,400 --> 00:13:49,360
orang akan menanggapinya,
141
00:13:49,600 --> 00:13:53,600
orang dengan beragam motif, minat
dan hasrat akan menanggapinya.
142
00:13:56,560 --> 00:14:01,120
Kalau Facebook atau Google mengaku
tidak memiliki karyawan di Manila,
143
00:14:01,360 --> 00:14:03,320
pernyataan itu memang benar,
144
00:14:03,560 --> 00:14:06,680
sebab yang dipakai adalah tenaga kerja
perusahaan alih daya pihak ketiga.
145
00:14:07,000 --> 00:14:10,360
Memang benar bahwa gaji dibayar
bukan oleh Google atau Facebook,
146
00:14:10,600 --> 00:14:14,840
melainkan oleh perusahaan alih daya
yang berkedudukan di Filipina.
147
00:14:17,040 --> 00:14:19,200
Moderator konten komersial
148
00:14:19,440 --> 00:14:22,040
bekerja di bawah bayang-bayang
platform media sosial.
149
00:14:22,440 --> 00:14:24,800
Tanpa terlihat, tanpa dipedulikan.
150
00:14:25,000 --> 00:14:31,360
Tanpa diketahui oleh jutaan pengguna
platform, yang tidak ambil pusing
151
00:14:31,600 --> 00:14:34,120
siapa yang menjaga kebersihan
di platform mereka.
152
00:15:03,320 --> 00:15:06,160
Moderator konten
ibarat penembak jitu.
153
00:15:13,080 --> 00:15:15,800
Sasaran kami adalah para pengguna
154
00:15:16,040 --> 00:15:19,000
yang melanggar peraturan aplikasi.
155
00:15:26,800 --> 00:15:27,840
Kena!
156
00:16:17,800 --> 00:16:20,640
Saya bangga dengan putra saya.
157
00:16:21,360 --> 00:16:27,160
Dia membantu segala kebutuhan kami.
158
00:16:27,840 --> 00:16:33,440
Saya tidak tahu
apa kerjanya sebagai moderator.
159
00:16:34,240 --> 00:16:36,520
Saya hanya tahu sebatas
yang dia ceritakan kepada saya,
160
00:16:36,800 --> 00:16:39,840
yaitu bahwa dia moderator
di tempat kerjanya.
161
00:16:48,320 --> 00:16:52,800
Ibu saya selalu bilang,
kalau saya tidak rajin belajar,
162
00:16:53,040 --> 00:16:58,120
saya bakal jadi pemulung.
163
00:17:00,840 --> 00:17:05,600
Sepanjang hari mereka mengais sampah.
164
00:17:06,120 --> 00:17:08,720
Mereka hidup dari sampah.
165
00:17:09,000 --> 00:17:12,600
Itu satu-satunya mata pencaharian
yang mereka tahu.
166
00:17:15,320 --> 00:17:18,080
Saya takut bernasib jadi pemulung.
167
00:17:18,600 --> 00:17:23,000
Itu salah satu alasan
saya rajin belajar di sekolah.
168
00:17:35,120 --> 00:17:39,160
Gaji di Filipina sangat kecil.
169
00:17:40,120 --> 00:17:43,000
Berkat pekerjaan
sebagai moderator konten
170
00:17:43,120 --> 00:17:47,480
kami bisa menyambung hidup.
171
00:17:56,080 --> 00:17:57,080
Hapus.
172
00:17:57,320 --> 00:17:58,320
Abaikan.
173
00:17:58,560 --> 00:17:59,800
Hapus.
174
00:18:07,600 --> 00:18:09,320
Ini bisa dihapus.
175
00:18:09,560 --> 00:18:10,760
Hapus.
176
00:18:11,000 --> 00:18:12,240
Abaikan.
177
00:18:13,720 --> 00:18:14,720
Hapus.
178
00:18:14,880 --> 00:18:15,600
Hapus.
179
00:18:15,840 --> 00:18:17,000
Hapus.
180
00:18:36,600 --> 00:18:39,120
ILLMA GORE, SENIMAN,
LOS ANGELES
181
00:18:39,560 --> 00:18:45,000
Januari 2016 saya membuat lukisan
Donald Trump dengan penis kecil,
182
00:18:45,120 --> 00:18:47,760
yang saya beri judul
"Make America Great Again".
183
00:18:49,120 --> 00:18:51,000
Lukisan itu menjadi viral
184
00:18:51,120 --> 00:18:55,400
dan jutaan orang membagikannya
lewat berbagai platform.
185
00:18:55,680 --> 00:18:58,080
Beberapa hari kemudian
Trump menyinggung ukuran penisnya
186
00:18:58,320 --> 00:19:00,760
di sebuah acara debat.
187
00:19:01,000 --> 00:19:04,680
Saya masih ingat, teman saya ...
188
00:19:05,000 --> 00:19:06,840
Dia menelepon dan berkata:
189
00:19:07,400 --> 00:19:12,000
"Apa kau yang membuat Donald Trump
membahas penisnya di acara debat?"
190
00:19:13,120 --> 00:19:18,000
Kata dia, kalau tangan saya kecil,
pasti ada lagi yang kecil.
191
00:19:18,160 --> 00:19:21,000
Saya jamin, tidak ada masalah.
192
00:19:23,480 --> 00:19:25,840
Saya taruh di laman Facebook saya,
193
00:19:26,080 --> 00:19:28,880
dan dalam tempo tiga hari sudah
dibagikan lebih dari 50 juta kali
194
00:19:29,120 --> 00:19:32,240
di begitu banyak
platform media sosial.
195
00:19:32,480 --> 00:19:34,040
Benar-benar gila.
196
00:19:34,280 --> 00:19:37,880
Saya tidak menyangka
akan seperti ini.
197
00:19:48,360 --> 00:19:51,040
Ini Donald Trump telanjang.
198
00:19:53,840 --> 00:19:59,120
Dia bukan pemimpin yang tangguh.
199
00:19:59,360 --> 00:20:02,600
Karena itu penisnya cenderung kecil.
200
00:20:03,200 --> 00:20:06,160
Dia kurang perkasa
201
00:20:06,880 --> 00:20:11,400
untuk menangani tugas berat
seorang presiden Amerika.
202
00:20:15,080 --> 00:20:17,160
Ini harus dihapus. Kenapa?
203
00:20:18,000 --> 00:20:21,040
Ini merendahkan pribadi Donald Trump,
204
00:20:21,280 --> 00:20:23,200
dan karena itu harus dihapus.
205
00:20:47,080 --> 00:20:49,760
Sebagai moderator konten
206
00:20:50,000 --> 00:20:53,200
kita harus punya prinsip.
207
00:20:55,800 --> 00:21:01,320
Kita yang memutuskan apakah orang akan
melihat sebuah gambar atau tidak.
208
00:21:06,840 --> 00:21:10,840
Kesalahan terbesar
yang bisa kita lakukan
209
00:21:11,200 --> 00:21:15,160
adalah membiarkan foto telanjang.
210
00:21:15,840 --> 00:21:19,360
Payudara atau kelamin laki-laki
211
00:21:19,600 --> 00:21:21,800
sama sekali tidak bisa diterima.
212
00:21:40,080 --> 00:21:42,040
Laman Facebook saya diblokir,
213
00:21:42,200 --> 00:21:45,600
semua akun saya diblokir.
214
00:21:45,840 --> 00:21:48,240
Padahal hanya itu milik saya.
215
00:21:48,480 --> 00:21:52,200
Jadi saya tidak bisa memberi tahu
siapa pun apa yang terjadi.
216
00:21:53,440 --> 00:21:55,720
Facebook bilang,
seni rupa tidak apa-apa.
217
00:21:56,000 --> 00:21:57,880
Memang bisa dianggap pornografi,
218
00:21:58,120 --> 00:22:00,640
tapi sebagai seni,
ini sebuah representasi.
219
00:22:00,880 --> 00:22:05,280
Ini bukan kenyataan, bukan foto,
bukan orang yang tidak memberi izin,
220
00:22:05,520 --> 00:22:07,040
ini rekaan semata.
221
00:22:07,280 --> 00:22:11,760
Tidak ada aspek kekerasan atau seksual,
ini hanya tubuh telanjang,
222
00:22:12,000 --> 00:22:13,600
dengan wajah Trump.
223
00:22:14,240 --> 00:22:18,000
Saya tidak paham kenapa orang merasa
224
00:22:18,200 --> 00:22:21,160
telanjang itu menjijikkan.
225
00:22:30,120 --> 00:22:33,680
Dulu saya tidak terbiasa
melihat gambar seperti ini.
226
00:22:35,440 --> 00:22:39,280
Mula-mula kami
harus dilatih dulu.
227
00:22:41,640 --> 00:22:46,040
Kami diperkenalkan dengan
berbagai istilah seksual.
228
00:22:46,720 --> 00:22:50,120
Kami harus tahu semuanya,
229
00:22:50,360 --> 00:22:54,840
kata seperti "pussy" atau "tits".
230
00:22:55,280 --> 00:23:00,600
Dulu saya tidak tahu istilah itu.
Saya benar-benar polos.
231
00:23:00,840 --> 00:23:04,480
Saya benar-benar tidak tahu.
232
00:23:04,760 --> 00:23:08,800
Lalu ada mainan seks.
233
00:23:09,040 --> 00:23:12,440
Itu juga saya tidak tahu.
234
00:23:13,000 --> 00:23:17,320
Istilah seperti "butt plugs".
235
00:23:17,880 --> 00:23:20,040
Saya tidak tahu apa itu.
236
00:23:20,280 --> 00:23:24,680
Saya pikir itu seperti sumbat
untuk tempat cuci piring,
237
00:23:25,000 --> 00:23:26,600
agar airnya tidak terbuang.
238
00:23:26,840 --> 00:23:29,840
Karena itu saya dulu
239
00:23:30,080 --> 00:23:33,640
biasa menonton macam-macam film porno
setelah pulang ke rumah.
240
00:23:37,440 --> 00:23:41,080
Saya tidak biasa melihat penis.
241
00:23:41,520 --> 00:23:46,000
Setiap kali saya tidur malam,
242
00:23:47,320 --> 00:23:51,160
saya bermimpi tentang
segala macam jenis penis.
243
00:23:51,400 --> 00:23:54,520
Saya melihat penis di mana-mana.
244
00:23:54,760 --> 00:23:57,520
Dan waktu bangun... Selamat pagi!
245
00:23:57,760 --> 00:24:02,080
Astaga mimpi tadi,
begitu banyak penis berbeda. Wow!
246
00:24:02,720 --> 00:24:07,680
Ada yang panjang, pendek,
putih, hitam, gendut,
247
00:24:08,000 --> 00:24:12,600
kurus, muda dan sangat tua,
penuh bercak...
248
00:24:13,120 --> 00:24:17,840
Itu berat sekali,
dan akhirnya menjadi semacam...
249
00:24:18,080 --> 00:24:19,600
kesenangan terlarang.
250
00:24:19,840 --> 00:24:23,160
Saya merasa bersalah
karena menonton hal-hal seperti itu.
251
00:24:23,400 --> 00:24:27,000
Tapi ada rasa senang juga.
252
00:24:37,720 --> 00:24:40,520
Colin Stretch,
Pimpinan Bagian Legal di Facebook,
253
00:24:40,800 --> 00:24:43,520
Sean Edgett,
Pimpinan Bagian Legal di Twitter,
254
00:24:43,800 --> 00:24:45,320
Richard Salgado,
255
00:24:45,560 --> 00:24:49,520
Direktur Penegakan Hukum
dan Keamanan Informasi di Google.
256
00:24:50,040 --> 00:24:52,880
Jutaan orang Amerika
menggunakan teknologi Anda
257
00:24:53,120 --> 00:24:55,720
untuk membagikan langkah pertama
seorang cucu,
258
00:24:56,000 --> 00:24:58,760
untuk bercerita tentang hal baik
dan buruk dalam hidup mereka.
259
00:24:59,000 --> 00:25:02,000
Anda semua telah memperkaya Amerika.
260
00:25:02,800 --> 00:25:05,160
Tapi pada akhirnya,
261
00:25:05,400 --> 00:25:09,080
berbagai teknologi itu
juga dapat dimanfaatkan
262
00:25:09,320 --> 00:25:12,240
untuk merongrong demokrasi kita
dan membahayakan bangsa kita.
263
00:25:13,040 --> 00:25:16,280
Apakah Anda setuju bahwa ada
dampak buruk terhadap bisnis
264
00:25:16,520 --> 00:25:19,880
jika rakyat Amerika merasa
bahwa platform Anda
265
00:25:20,080 --> 00:25:25,200
dapat dibajak oleh teroris
untuk meradikalisasi orang Amerika?
266
00:25:26,400 --> 00:25:28,400
Itu lebih dari sekadar buruk
untuk bisnis, Senator.
267
00:25:28,640 --> 00:25:31,000
Di Facebook
tidak ada tempat untuk terorisme.
268
00:25:31,160 --> 00:25:32,760
Kami sependapat.
269
00:25:33,000 --> 00:25:35,000
Saya setuju dengan pernyataan itu.
270
00:25:38,880 --> 00:25:41,000
Saya ingin mengajukan
beberapa pertanyaan.
271
00:25:41,120 --> 00:25:45,440
Ada perbedaan besar antara
akun pelaku jihad potensial ...
272
00:25:45,720 --> 00:25:49,280
Ada banyak sekali interpretasi teologi
273
00:25:49,520 --> 00:25:53,120
perihal kekerasan atas nama agama.
274
00:25:53,360 --> 00:25:58,600
Seluk-beluk jihad bukan bagian dari
pendidikan orang-orang teknik.
275
00:25:58,840 --> 00:26:02,600
Siapa para ahli konten Anda,
dan bagaimana mereka diseleksi?
276
00:26:02,840 --> 00:26:08,840
Kami mempunyai ribuan karyawan
yang dalam rangka tugas mereka
277
00:26:09,040 --> 00:26:12,000
berupaya menghalau
terorisme dari Facebook.
278
00:26:12,120 --> 00:26:14,640
Ada 150 karyawan
yang khusus mengerjakan itu.
279
00:26:14,880 --> 00:26:17,560
Di Twitter ada berapa orang,
Pak Edgett?
280
00:26:17,800 --> 00:26:21,600
Kami memanfaatkan teknologi,
seperti algoritme
281
00:26:21,840 --> 00:26:24,000
dan pembelajaran mesin,
untuk membantu kami,
282
00:26:24,240 --> 00:26:29,480
tapi juga tim kepercayaan dan keamanan
serta tim layanan pengguna.
283
00:26:29,720 --> 00:26:31,040
Itu ratusan orang.
284
00:26:31,280 --> 00:26:32,600
Bagaimana dengan Anda?
285
00:26:32,840 --> 00:26:35,000
Secara internal ada ribuan orang.
286
00:26:35,200 --> 00:26:40,000
Kami juga mendapat banyak petunjuk
terkait konten
287
00:26:40,160 --> 00:26:42,000
dari luar perusahaan.
288
00:26:43,200 --> 00:26:48,600
Pak Stretch, kalau begitu,
apakah 150 orang cukup, menurut Anda?
289
00:26:49,760 --> 00:26:51,720
Kalau boleh saya perjelas:
290
00:26:52,000 --> 00:26:56,600
Kami mempunyai sekitar sepuluh ribu
karyawan di bidang keamanan umum,
291
00:26:56,840 --> 00:27:01,000
dan kami berencana menggandakan
angka itu sampai akhir 2018.
292
00:27:08,200 --> 00:27:10,800
ADA DAFTAR BERISI
37 ORGANISASI TEROR
293
00:27:11,000 --> 00:27:12,840
YANG HARUS KAMI TANGKAL.
294
00:27:13,160 --> 00:27:16,600
DAFTAR ITU BERASAL DARI
KEMENTERIAN KEAMANAN DALAM NEGERI AS.
295
00:27:17,000 --> 00:27:21,040
KAMI HARUS MENGHAFAL SEMUA INFORMASI
TENTANG KELOMPOK-KELOMPOK TERORIS ITU:
296
00:27:21,680 --> 00:27:24,360
BENDERA MEREKA, UJARAN MEREKA.
297
00:27:24,880 --> 00:27:27,000
LALU KAMI LAKUKAN MODERASI.
298
00:27:37,360 --> 00:27:38,120
Hapus.
299
00:27:39,400 --> 00:27:40,400
Hapus.
300
00:27:41,480 --> 00:27:42,680
Hapus.
301
00:27:43,000 --> 00:27:44,000
Abaikan.
302
00:27:45,320 --> 00:27:46,360
Hapus.
303
00:27:47,040 --> 00:27:48,200
Hapus.
304
00:27:50,680 --> 00:27:51,840
Hapus.
305
00:27:55,680 --> 00:27:58,320
Saya sudah menyaksikan
ratusan pemenggalan
306
00:28:01,160 --> 00:28:05,000
selama menjadi moderator konten.
307
00:28:09,720 --> 00:28:12,400
Bukan hanya foto, juga video.
308
00:28:13,440 --> 00:28:16,480
Video pemenggalan selama dua menit.
309
00:28:17,120 --> 00:28:21,000
Algojonya berpidato dulu
310
00:28:21,160 --> 00:28:25,560
sebelum memenggal kepala para korban.
311
00:28:26,640 --> 00:28:33,240
Kadang-kadang mereka beruntung,
dan pisau yang dipakai itu tajam.
312
00:28:33,840 --> 00:28:36,080
Skenario terburuk adalah
pisau kecil,
313
00:28:36,280 --> 00:28:38,160
mirip pisau dapur,
314
00:28:38,360 --> 00:28:40,200
yang tidak terlalu tajam.
315
00:28:40,400 --> 00:28:44,760
Kadang-kadang perlu waktu satu menit
sebelum kepalanya terpenggal.
316
00:28:47,000 --> 00:28:49,440
Di sini dipakai bilah pendek.
317
00:28:50,600 --> 00:28:51,600
Sebab dari ...
318
00:28:51,880 --> 00:28:53,440
Di sini terlihat,
319
00:28:54,520 --> 00:28:56,440
bagaimana kepalanya dipotong.
320
00:28:58,160 --> 00:29:01,280
Potongannya tidak bersih,
tapi gerigis.
321
00:29:04,000 --> 00:29:07,320
Sebab kalau mereka memakai
bilah yang lebih panjang dan tajam,
322
00:29:07,560 --> 00:29:09,480
bekas potongannya bersih
323
00:29:09,720 --> 00:29:11,640
dan darahnya tidak terlalu banyak.
324
00:29:13,840 --> 00:29:16,560
Di sini dipakai pisau dapur.
325
00:29:23,720 --> 00:29:25,240
Ini benar-benar sulit.
326
00:29:58,560 --> 00:30:00,640
Setiap kali kami temukan
foto atau video
327
00:30:00,880 --> 00:30:03,120
di media sosial,
328
00:30:03,360 --> 00:30:08,520
kami langsung mengarsipkannya,
karena bisa saja segera dihapus.
329
00:30:09,520 --> 00:30:12,000
Bagi kami penting
untuk mendokumentasikan foto-foto ini,
330
00:30:12,200 --> 00:30:14,440
karena bisa lenyap untuk selamanya.
331
00:30:18,160 --> 00:30:22,440
Hampir setiap orang di Suriah punya
ponsel dan menjadi aktivis.
332
00:30:22,720 --> 00:30:26,840
Setiap dugaan serangan udara
didokumentasi: akibatnya,
333
00:30:28,560 --> 00:30:30,840
korbannya, kehancurannya,
334
00:30:31,000 --> 00:30:32,840
apakah ini dari pihak koalisi,
335
00:30:33,040 --> 00:30:35,680
Rusia atau rezim Suriah.
336
00:30:36,000 --> 00:30:40,040
Semua video dikumpulkan
dan diunggah ke akun mereka.
337
00:30:47,360 --> 00:30:49,640
Setelah mengumpulkan data,
338
00:30:49,880 --> 00:30:52,800
kami berusaha menentukan lokasi
yang tepat.
339
00:30:53,000 --> 00:30:55,160
Hasilnya kami publikasikan daring
340
00:30:55,400 --> 00:30:58,720
untuk membantu memberi gambaran
mengenai perang di Suriah.
341
00:31:00,120 --> 00:31:04,360
Ini sekolahnya, dan serangan udara
terjadi di daerah ini,
342
00:31:04,640 --> 00:31:06,400
di daerah sekitar sekolah.
343
00:31:08,240 --> 00:31:13,680
Tanpa kerja kami, militer atau
pemerintahan bebas bertindak,
344
00:31:14,640 --> 00:31:17,320
tanpa dipertanyakan.
345
00:31:17,600 --> 00:31:20,520
Korban di kalangan sipil
akan meningkat,
346
00:31:20,760 --> 00:31:22,040
takkan ada kejelasan.
347
00:31:23,120 --> 00:31:25,600
Kita takkan bisa tahu
apa yang sedang terjadi.
348
00:31:27,000 --> 00:31:28,760
Video-video ini diperlukan
349
00:31:29,000 --> 00:31:30,520
dan menjadi bagian dari perang.
350
00:31:31,480 --> 00:31:35,760
Ini rekaman informasi
dan bukti untuk masa mendatang.
351
00:31:38,680 --> 00:31:40,080
Masalahnya,
352
00:31:40,320 --> 00:31:44,040
video-video ini sering digolongkan
sebagai video ISIS.
353
00:31:44,280 --> 00:31:47,520
Isinya sangat mencolok,
dan karena itu videonya dihapus.
354
00:31:50,360 --> 00:31:53,560
Penyensoran di YouTube
355
00:31:53,800 --> 00:31:56,000
berdampak kepada banyak organisasi
356
00:31:56,200 --> 00:32:00,000
yang memiliki video mengenai Suriah,
serangan udara, dan kehancuran.
357
00:32:00,120 --> 00:32:01,840
Akun organisasi seperti itu diblokir.
358
00:32:03,640 --> 00:32:06,400
Hidup di sana berbeda dengan di sini.
Di sana perang.
359
00:32:06,680 --> 00:32:09,360
Karena itu kontennya pun berbeda.
360
00:32:09,760 --> 00:32:13,720
Kami berfokus kepada perang,
serangan udara, dan pembantaian,
361
00:32:14,000 --> 00:32:15,640
itulah yang kami liput.
362
00:32:16,400 --> 00:32:19,440
Kami tidak mewartakan
kegiatan persepakbolaan
363
00:32:19,720 --> 00:32:23,120
atau tempat makan siang terbaik.
364
00:32:24,000 --> 00:32:25,080
Sayangnya tidak.
365
00:32:56,000 --> 00:33:00,000
Keputusan tentang apa yang tergolong
sebagai konten teroris
366
00:33:00,240 --> 00:33:03,360
sangat tergantung kepada konteks.
367
00:33:04,240 --> 00:33:09,760
Konten yang tampil sebagai ancaman nyata
di satu platform
368
00:33:10,000 --> 00:33:13,400
mungkin tampil sebagai berita
di platform lain,
369
00:33:13,680 --> 00:33:20,400
atau sebagai satire atau kritik
terhadap konten lain.
370
00:33:20,680 --> 00:33:26,040
Banyak sekali yang tergantung
kepada konteks untuk konten tertentu
371
00:33:26,280 --> 00:33:30,120
sehingga sulit untuk memutuskan apakah
konten itu perlu dihapus atau tidak.
372
00:33:34,040 --> 00:33:36,600
Selalu ada pertanyaan sulit.
373
00:33:37,360 --> 00:33:40,160
Eksekusi Saddam Hussein
374
00:33:40,720 --> 00:33:43,440
diam-diam direkam oleh seseorang
375
00:33:43,760 --> 00:33:45,600
dan diunggah ke YouTube.
376
00:33:46,400 --> 00:33:50,840
Keesokan hari ada dua video eksekusi:
377
00:33:51,040 --> 00:33:53,600
Satu menunjukkan ia digantung.
378
00:33:54,040 --> 00:33:59,440
Satu lagi menunjukkan jenazahnya.
379
00:34:00,040 --> 00:34:06,000
Keduanya sarat kekerasan
dan sangat jelas
380
00:34:06,440 --> 00:34:10,520
dan kami harus memutuskan
apakah akan dibiarkan atau dihapus?
381
00:34:11,200 --> 00:34:16,360
Kami memutuskan untuk membiarkan
video hukuman gantung,
382
00:34:16,600 --> 00:34:20,360
karena video itu bernilai sejarah,
383
00:34:21,400 --> 00:34:24,400
yaitu eksekusi bekas diktator.
384
00:34:25,400 --> 00:34:31,200
Tapi video jenazahnya
kami anggap tidak perlu.
385
00:34:31,680 --> 00:34:34,640
Tidak ada relevansi historisnya,
386
00:34:34,880 --> 00:34:36,680
jadi kami hapus video itu.
387
00:34:37,760 --> 00:34:41,520
Saya tidak tahu apakah kami
mengambil keputusan yang tepat.
388
00:34:41,720 --> 00:34:43,880
Perjalanan sejarah
akan memberi jawaban.
389
00:34:44,840 --> 00:34:49,000
Tapi itulah keputusan
yang harus diambil
390
00:34:49,200 --> 00:34:51,360
untuk tiap-tiap video.
391
00:34:51,520 --> 00:34:54,240
Coba bayangkan para staf
di seluruh dunia.
392
00:34:54,480 --> 00:34:59,000
Mereka menilai konten dari negara
yang belum pernah mereka datangi,
393
00:34:59,200 --> 00:35:03,280
tanpa pengetahuan latar belakang.
394
00:35:03,520 --> 00:35:07,240
Menilai konten bermasalah itu
sangat berat.
395
00:35:08,160 --> 00:35:12,000
KETUA TIM KAMI TIDAK BISA
MEMANTAU SETIAP KEPUTUSAN KAMI.
396
00:35:12,240 --> 00:35:14,800
MEREKA HANYA MEMERIKSA 3 PERSEN
397
00:35:15,040 --> 00:35:18,000
LAPORAN SEORANG MODERATOR.
398
00:35:18,200 --> 00:35:21,520
BEGITULAH PROSEDUR EVALUASI MUTU.
399
00:35:34,760 --> 00:35:40,080
Ini foto terkenal.
400
00:35:40,320 --> 00:35:42,840
Kalau tidak salah,
dari zaman Perang Vietnam.
401
00:35:43,640 --> 00:35:48,320
Saya rasa,
anak ini menjadi ikon di Vietnam.
402
00:35:51,880 --> 00:35:54,280
Tapi berdasarkan garis pedoman kami,
403
00:35:55,000 --> 00:35:57,320
kalau ada alat kelamin
dan anak di bawah umur,
404
00:35:57,600 --> 00:35:59,000
hapus.
405
00:36:02,480 --> 00:36:04,680
Ini mudah:
406
00:36:05,840 --> 00:36:07,240
Zoophilia.
407
00:36:08,000 --> 00:36:14,640
Ini laki-laki tua yang
berhubungan seks dengan seekor burung.
408
00:36:15,040 --> 00:36:19,040
Semua yang berkaitan dengan
hubungan seks harus dihapus.
409
00:36:19,280 --> 00:36:21,080
Jadi ini pun saya hapus.
410
00:36:26,240 --> 00:36:28,640
Di sini kita melihat
seorang laki-laki berlutut
411
00:36:29,240 --> 00:36:32,480
dan seekor anjing besar
dan seorang serdadu,
412
00:36:33,480 --> 00:36:36,280
kemungkinan anggota ISIS.
413
00:36:36,880 --> 00:36:39,800
Sebelah kiri ini petarung ISIS.
414
00:36:40,040 --> 00:36:42,160
Dan ini tahanannya.
415
00:36:43,720 --> 00:36:47,000
Ini cara penyiksaan ISIS.
416
00:36:49,200 --> 00:36:52,000
Karena itu kita hapus.
417
00:37:01,480 --> 00:37:07,720
Ini foto anak kecil
korban kecelakaan saat banjir.
418
00:37:08,360 --> 00:37:11,120
Kalau kita bekerja untuk pers,
419
00:37:11,720 --> 00:37:15,320
foto seperti ini tidak dipublikasi.
420
00:37:15,760 --> 00:37:19,120
Fotonya bisa dipublikasikan,
tapi harus disensor,
421
00:37:20,280 --> 00:37:23,200
tidak boleh sejelas ini.
422
00:37:23,440 --> 00:37:27,640
Fotonya boleh dipasang,
tapi jangan sejelas ini.
423
00:37:28,200 --> 00:37:31,560
Ini menurut saya tidak bisa diterima
dan harus dihapus.
424
00:37:51,000 --> 00:37:54,800
Janggal rasanya:
secara fisik saya di Berlin,
425
00:37:55,040 --> 00:38:00,000
tapi secara emosional dan mental
saya sepenuhnya di Suriah.
426
00:38:02,040 --> 00:38:04,560
Saya mengamati perang dari jauh.
427
00:38:09,000 --> 00:38:12,760
Saya merasa bersalah
karena berhasil selamat.
428
00:38:16,480 --> 00:38:19,040
KHALED BARAKEH, SENIMAN
BERLIN/DAMASKUS
429
00:38:20,240 --> 00:38:26,000
Saya memasang foto-foto ini
di dinding Facebook saya,
430
00:38:26,200 --> 00:38:28,760
kemudian disingkirkan oleh Facebook
setelah tiga hari.
431
00:38:29,000 --> 00:38:30,760
Tidak pernah ada penjelasan.
432
00:38:32,120 --> 00:38:36,560
Saya coba kontak dengan segala cara,
tapi tidak berhasil.
433
00:38:36,800 --> 00:38:40,000
Supaya bisa memperlihatkan
foto-foto ini,
434
00:38:41,040 --> 00:38:45,000
saya mengerik permukaan foto
435
00:38:45,080 --> 00:38:49,840
untuk menghilangkan korban
dari foto.
436
00:38:50,000 --> 00:38:52,800
Dengan cara ini,
fotonya bisa diperlihatkan
437
00:38:53,000 --> 00:38:56,320
tanpa ada alasan
fotonya tidak layak diperlihatkan.
438
00:39:18,080 --> 00:39:20,120
Kadang-kadang saya bertanya sendiri:
439
00:39:20,360 --> 00:39:25,520
Siapa yang menentukan
kebijakan di Facebook?
440
00:39:26,480 --> 00:39:29,000
Saya ingin bertemu orang-orang itu.
441
00:39:29,160 --> 00:39:31,000
Saya ingin tahu siapa mereka.
442
00:39:31,160 --> 00:39:36,320
Logikanya, latar belakang mereka
menentukan cara berpikir mereka.
443
00:39:42,840 --> 00:39:46,840
Anak ini tewas
bukan dalam situasi normal.
444
00:39:48,040 --> 00:39:52,560
Ia korban permainan internasional.
445
00:39:53,640 --> 00:39:58,080
Saya ingin memberinya
suara yang sangat lantang.
446
00:39:59,080 --> 00:40:00,560
Itu tujuan saya.
447
00:40:02,040 --> 00:40:04,520
Kita harus terus mengusik dunia,
448
00:40:05,040 --> 00:40:07,240
dalam arti yang baik.
449
00:40:36,000 --> 00:40:39,720
Pihak perusahaan semakin berkuasa
untuk memutuskan
450
00:40:40,000 --> 00:40:43,000
apa yang dibiarkan
dan apa yang harus dihapus.
451
00:40:44,320 --> 00:40:48,520
Pihak perusahaan memanfaatkan
hasrat kita akan kemudahan,
452
00:40:48,760 --> 00:40:53,000
keengganan kita untuk berusaha
dan mengerjakan hal sulit.
453
00:40:53,160 --> 00:40:57,800
Lama-lama, atau bahkan sudah,
454
00:40:58,040 --> 00:41:03,440
ini berdampak negatif terhadap
kemampuan kita untuk berpikir kritis,
455
00:41:04,400 --> 00:41:08,600
mungkin juga terhadap kemampuan kita
menghadapi situasi sulit,
456
00:41:09,320 --> 00:41:15,120
sampai akhirnya keragaman pendapat dan
situasi sulit dibatasi.
457
00:41:17,840 --> 00:41:19,880
Orang jangan heran
458
00:41:20,080 --> 00:41:24,040
kalau di masa mendatang
tersedia lebih sedikit informasi,
459
00:41:24,280 --> 00:41:29,120
lebih sedikit informasi yang mengusik
dan memprovokasi, di internet.
460
00:41:30,240 --> 00:41:36,560
Dan saya pikir masyarakat luas
akan rugi karenanya.
461
00:42:12,600 --> 00:42:15,800
Sebagai moderator
kita harus selalu fokus.
462
00:42:17,560 --> 00:42:19,800
Dalam kehidupan kita juga perlu fokus.
463
00:42:20,600 --> 00:42:22,120
Fokus pada hal-hal baik.
464
00:42:27,520 --> 00:42:31,080
Suatu hari, hal-hal buruk
akan lenyap.
465
00:42:32,560 --> 00:42:35,560
Karena ada janji
akan kebahagiaan abadi.
466
00:42:41,440 --> 00:42:45,000
Dunia tempat kita hidup sekarang
kurang sehat.
467
00:42:47,680 --> 00:42:50,560
Di dunia ini ada kekuatan jahat.
468
00:42:54,040 --> 00:42:56,120
Kita harus waspada.
469
00:42:58,040 --> 00:43:01,000
Kita harus mengendalikannya,
baik atau buruk.
470
00:43:12,000 --> 00:43:16,040
TEGAKKAN KEPALA, ANAK MUDA!
TUHAN.
471
00:43:23,200 --> 00:43:25,640
GARIS POLISI
DILARANG MELINTAS
472
00:43:48,080 --> 00:43:51,000
Yang terlihat di sini
adalah petugas polisi.
473
00:43:52,240 --> 00:43:55,000
Di sisi kiri foto
474
00:43:55,240 --> 00:43:58,160
ada orang dengan pistol.
475
00:43:58,840 --> 00:44:02,000
Ini petugas polisi Filipina.
476
00:44:02,720 --> 00:44:06,400
Saya menduga ini soal
pembunuhan ekstrayudisial,
477
00:44:06,680 --> 00:44:08,560
seperti diklaim oleh media.
478
00:44:10,480 --> 00:44:12,560
Kita tidak tahu
apakah memang polisi
479
00:44:12,800 --> 00:44:15,600
atau pengedar narkoba lain
yang membunuh mereka.
480
00:44:16,880 --> 00:44:20,680
Sementara orang yakin
presiden kami yang bertanggung jawab.
481
00:44:27,400 --> 00:44:28,360
Duterte,
482
00:44:30,120 --> 00:44:33,080
presiden kami, anti-narkoba.
483
00:44:33,320 --> 00:44:36,000
Dia anti-pelaku kejahatan.
484
00:44:37,880 --> 00:44:42,000
Dan sama seperti presiden kami,
yang berusaha sebisa mungkin
485
00:44:42,240 --> 00:44:44,000
untuk melindungi Filipina,
486
00:44:44,200 --> 00:44:47,640
saya melakukan hal yang sama
di pekerjaan saya.
487
00:44:47,880 --> 00:44:51,680
Saya melindungi
para pengguna aplikasi.
488
00:44:57,480 --> 00:45:00,720
Hitler membantai
tiga juta orang Yahudi.
489
00:45:01,440 --> 00:45:06,360
Di sini ada
tiga juta pecandu narkoba.
490
00:45:10,120 --> 00:45:12,120
Saya rela membantai mereka.
491
00:45:14,760 --> 00:45:18,280
Kalau Jerman punya Hitler,
492
00:45:18,520 --> 00:45:20,600
Filipina punya saya.
493
00:45:20,840 --> 00:45:22,400
Semoga semua penjahat
494
00:45:22,680 --> 00:45:25,640
menjadi korban saya,
495
00:45:25,880 --> 00:45:30,440
supaya masalah negeri saya teratasi
496
00:45:30,720 --> 00:45:34,600
dan generasi berikut
terselamatkan dari kehancuran.
497
00:45:35,560 --> 00:45:36,560
Terima kasih.
498
00:45:50,760 --> 00:45:55,320
Walaupun membunuh itu salah,
499
00:45:55,480 --> 00:46:00,200
cobalah melihat sisi baik
pemimpin kami,
500
00:46:01,000 --> 00:46:03,880
daripada fokus ke sisi buruknya.
501
00:46:06,880 --> 00:46:10,040
Saya fokus ke hal-hal baik.
502
00:46:10,200 --> 00:46:13,360
Saya menjauhi hal-hal buruk.
503
00:46:36,680 --> 00:46:40,040
Mocha Girls ini seksi banget!
504
00:46:41,760 --> 00:46:44,080
Kita langsung jatuh hati.
505
00:46:44,840 --> 00:46:46,640
Favorit saya Mocha.
506
00:46:51,160 --> 00:46:54,720
Mocha Girls sangat berpengaruh
di Filipina.
507
00:46:55,360 --> 00:46:58,560
Orang dari seluruh dunia
menonton mereka lewat media sosial.
508
00:46:58,800 --> 00:47:01,000
Mereka bukan hanya populer,
509
00:47:01,240 --> 00:47:04,000
mereka juga mendukung presiden kami.
510
00:47:04,600 --> 00:47:07,200
Kalian puas dengan Presiden Duterte?
511
00:47:10,320 --> 00:47:14,000
Kita percaya kepada presiden
dan kita dukung penuh dia.
512
00:47:39,480 --> 00:47:41,400
Anda sudah melihat fotonya?
513
00:47:42,560 --> 00:47:45,360
Anda sudah melihat foto seksinya
di internet?
514
00:47:53,840 --> 00:47:57,160
Dulu laman Facebook dia
penuh dengan foto seperti ini,
515
00:47:57,800 --> 00:47:59,600
sebelum ia aktif di dunia politik.
516
00:48:02,760 --> 00:48:08,000
Pada suatu ketika, presiden kami
memboikot media.
517
00:48:08,120 --> 00:48:10,640
Ia tidak bersedia
diwawancarai oleh media.
518
00:48:10,880 --> 00:48:13,160
Tapi ia mau
diwawancarai oleh Mocha Uson.
519
00:48:13,400 --> 00:48:17,280
Kami sepenuhnya mendukung
boikot media Bapak.
520
00:48:17,520 --> 00:48:20,680
Orang-orang tergantung
kepada Facebook.
521
00:48:21,000 --> 00:48:22,000
Facebook?
- Betul, Bapak.
522
00:48:23,240 --> 00:48:26,880
Dalam wawancara itu, Mocha Uson
menyanjung-nyanjung presiden,
523
00:48:27,080 --> 00:48:31,320
menyatakan dukungan kepada presiden,
dan menyerukan boikot media.
524
00:48:32,000 --> 00:48:34,760
Saya lalu menulis
di laman Facebook saya:
525
00:48:35,000 --> 00:48:36,160
"Sungguh menarik
526
00:48:36,400 --> 00:48:40,240
bahwa pertemuan antara presiden
dan penggemar setianya
527
00:48:40,480 --> 00:48:42,720
dianggap sebagai jurnalisme."
528
00:48:45,080 --> 00:48:49,000
Ada orang yang menyuruh saya
membeli rompi tahan peluru.
529
00:48:49,120 --> 00:48:52,400
Ada yang mengancam bahwa mereka
akan menembak kepala saya.
530
00:48:52,600 --> 00:48:55,400
Ada yang mau
membakar saya hidup-hidup.
531
00:48:55,600 --> 00:48:58,520
Saya dituduh korup, berprasangka.
532
00:48:58,880 --> 00:49:02,200
Saya disebut "perslacur."
533
00:49:02,440 --> 00:49:04,640
Bahayanya Facebook adalah
534
00:49:07,720 --> 00:49:11,000
orang mudah terjebak untuk memihak
535
00:49:11,160 --> 00:49:14,440
karena menerbitkan sesuatu itu
amat mudah, tinggal tulis dan klik.
536
00:49:14,720 --> 00:49:16,680
Orang bisa sangat emosional
537
00:49:17,000 --> 00:49:19,880
dan mudah terbawa oleh
informasi sepotong-sepotong
538
00:49:20,120 --> 00:49:22,360
yang membuat mereka mengira
mereka sudah mengerti.
539
00:49:22,680 --> 00:49:27,000
Itu sebabnya kita punya Trump
atau Duterte,
540
00:49:27,160 --> 00:49:28,600
atau juga Mocha Uson.
541
00:49:29,120 --> 00:49:31,200
Kita menghadapi bahaya
kehilangan demokrasi,
542
00:49:31,440 --> 00:49:33,840
karena kita bersedia
untuk mencampakkannya.
543
00:49:45,840 --> 00:49:48,200
Di Lembah Silikon
berlaku semacam aturan tutup mulut.
544
00:49:48,840 --> 00:49:52,600
Segala sesuatu ditampilkan
serba sempurna dan mengilap.
545
00:49:52,800 --> 00:49:56,720
Semua orang berhasil, semuanya beres.
546
00:49:57,000 --> 00:50:00,280
Hal-hal negatif tidak dibahas.
547
00:50:00,520 --> 00:50:03,120
Waktu saya di sana,
staf Facebook sangat muda.
548
00:50:03,360 --> 00:50:06,000
Ketika kita muda, kita banyak waktu,
549
00:50:06,160 --> 00:50:09,040
belum ada istri, belum ada anak.
550
00:50:09,280 --> 00:50:11,360
Bisa dibilang, banyak staf yang
seolah setengah rumahnya itu, ya, Facebook.
551
00:50:14,600 --> 00:50:18,720
Kita didorong untuk meretas dunia.
Dengan cara apa pun.
552
00:50:21,080 --> 00:50:23,280
Facebook pada dasarnya
perusahaan teknologi
553
00:50:23,520 --> 00:50:27,000
di bawah orang-orang teknik yang
mementingkan produk, infrastruktur,
554
00:50:27,200 --> 00:50:30,000
skala, pengalaman pengguna.
555
00:50:30,120 --> 00:50:31,600
Ini bukan perusahaan media.
556
00:50:31,840 --> 00:50:36,840
Facebook tidak ambil pusing soal
konten, itu bukan bagian dari DNA-nya.
557
00:50:37,040 --> 00:50:41,120
Setiap kali diingatkan akan kewajiban
yang seharusnya diembannya,
558
00:50:41,360 --> 00:50:44,400
Facebook berkilah, kami hanya
menerapkan matematika lewat algoritme.
559
00:50:44,680 --> 00:50:47,240
Kalian memperoleh yang kalian inginkan
dan kami tidak ikut campur.
560
00:50:47,520 --> 00:50:51,160
Tapi realitas politik setelah
Trump dan Brexit menunjukkan
561
00:50:51,400 --> 00:50:53,320
jawaban ini tidak lagi memadai.
562
00:50:53,600 --> 00:50:57,640
Kita sampai di suatu titik di mana
publik tidak lagi menerima itu.
563
00:50:57,880 --> 00:51:01,000
Cepat atau lambat pemerintah akan
turun tangan dan mereka tahu itu.
564
00:51:01,320 --> 00:51:06,080
KOMITE INTELIJEN SENAT
INVESTIGASI RUSIA DAN PEMILU 2016
565
00:51:06,600 --> 00:51:10,000
Ada laporan pers bahwa Facebook
mungkin telah mengembangkan perangkat lunak
566
00:51:10,240 --> 00:51:15,600
yang menghalau munculnya kiriman di
umpan berita di wilayah tertentu.
567
00:51:15,840 --> 00:51:18,080
Benarkah itu?
Apakah Facebook mengembangkan perangkat lunak
568
00:51:18,320 --> 00:51:23,040
untuk menghalau munculnya kiriman
di umpan berita di daerah tertentu?
569
00:51:24,080 --> 00:51:26,640
Ada banyak kasus menyangkut laporan
570
00:51:26,880 --> 00:51:30,120
dari pemerintahan asing
mengenai konten
571
00:51:30,360 --> 00:51:33,440
yang ilegal menurut hukum
pemerintahan tersebut.
572
00:51:33,720 --> 00:51:37,000
Karena itu kami terapkan
"geoblocking" atau "IP-blocking",
573
00:51:37,240 --> 00:51:42,600
agar konten itu tidak muncul di
negara bersangkutan, namun tetap...
574
00:51:42,840 --> 00:51:45,880
Jika kritik terhadap pemerintah
dilarang di sebuah negara,
575
00:51:46,080 --> 00:51:49,200
Anda dapat memblokir kritik itu
576
00:51:49,440 --> 00:51:52,360
sehingga diizinkan masuk dan
beroperasi di negara tersebut?
577
00:51:53,720 --> 00:51:55,800
Dalam...
578
00:51:56,040 --> 00:51:58,760
dalam sebagian besar kasus
579
00:51:59,000 --> 00:52:05,200
menyangkut laporan mengenai konten
yang ilegal di tempat tertentu,
580
00:52:05,440 --> 00:52:08,600
tidak ada sangkut paut
dengan ekspresi politik.
581
00:52:31,320 --> 00:52:35,720
Facebook menghapus apa pun
dari platform media sosial itu,
582
00:52:36,000 --> 00:52:39,800
jika diminta oleh
pihak berwenang Turki.
583
00:52:41,240 --> 00:52:45,280
Ekspresi politik atau konten
yang bersifat politik
584
00:52:45,520 --> 00:52:49,480
pada umumnya menjadi sebab utama
penghapusan itu.
585
00:52:51,520 --> 00:52:57,520
Saya akan tunjukkan contoh konten
yang diblokir atau dihapus.
586
00:52:58,000 --> 00:53:00,520
Foto bendara Turki yang dibakar,
587
00:53:01,120 --> 00:53:02,880
peta Kurdistan,
588
00:53:03,080 --> 00:53:06,520
karikatur atau kartun
yang mengejek Erdogan.
589
00:53:09,440 --> 00:53:14,160
Apakah di YouTube, Facebook,
atau Twitter
590
00:53:14,480 --> 00:53:19,720
Turki adalah negara yang paling banyak
memberlakukan restriksi di dunia.
591
00:53:22,280 --> 00:53:25,880
Turki dari dulu
negara dengan penyensoran.
592
00:53:26,120 --> 00:53:30,320
Media tradisional
semakin dikendalikan oleh pemerintah,
593
00:53:31,000 --> 00:53:35,000
jadi orang Turki berpaling
kepada platform media sosial.
594
00:53:35,880 --> 00:53:40,800
Tapi sekarang media sosial terus
didesak oleh pihak berwenang Turki
595
00:53:41,040 --> 00:53:43,640
untuk menghapus atau memblokir konten.
596
00:53:45,360 --> 00:53:50,840
Berbagai perusahaan itu mulai membuat
kesepakatan dengan pihak pemerintah,
597
00:53:51,800 --> 00:53:56,040
karena tidak ingin diblokir
sepenuhnya di Turki,
598
00:53:56,280 --> 00:54:00,000
sebab itu berarti kehilangan
pengguna dan peluang bisnis.
599
00:54:36,080 --> 00:54:40,720
YouTube begitu visual
dan mampu melintasi batas-batas,
600
00:54:41,000 --> 00:54:47,240
jadi sekitar 2007 kami mulai
sering mengalami pemblokiran.
601
00:54:47,480 --> 00:54:50,200
Jika satu pemerintah tidak tahu
cara menghubungi kita,
602
00:54:50,440 --> 00:54:53,520
layanan kita yang dimatikan
di negara mereka.
603
00:54:58,040 --> 00:55:01,280
Kami perlu agak lama sampai
mengetahui sebab mereka gusar.
604
00:55:02,240 --> 00:55:08,200
Akhirnya kami mendapatkan
video-video yang dipermasalahkan.
605
00:55:08,440 --> 00:55:10,000
Ada yang menyangkut Atatürk,
606
00:55:10,160 --> 00:55:13,000
ada yang dianggap video teroris,
607
00:55:13,120 --> 00:55:15,760
yang melanggar hukum Turki.
608
00:55:16,000 --> 00:55:23,360
Saya pernah pukul dua dini hari
meninjau 67 video
609
00:55:23,600 --> 00:55:25,040
yang mengusik pemerintah,
610
00:55:25,280 --> 00:55:31,000
lalu memutuskan mana yang dihapus
dan mana yang dibiarkan.
611
00:55:32,520 --> 00:55:35,160
Ada sejumlah video
612
00:55:35,400 --> 00:55:37,640
yang biasanya takkan dihapus
oleh kami,
613
00:55:37,880 --> 00:55:41,120
karena tidak melanggar
garis pedoman komunitas,
614
00:55:41,360 --> 00:55:44,080
tapi ternyata ilegal di Turki,
615
00:55:44,320 --> 00:55:49,240
sehingga kami putuskan untuk diblokir
berdasarkan alamat IP pengguna Turki.
616
00:55:49,480 --> 00:55:52,720
Jadi, pengguna di Turki
takkan bisa melihat video-video itu.
617
00:55:57,680 --> 00:56:01,520
Saya kurang puas dengan solusi itu,
tapi begitulah akhirnya.
618
00:56:15,760 --> 00:56:18,320
Ini adalah kesepakatan jalan belakang
619
00:56:18,600 --> 00:56:21,400
yang jarang diketahui oleh publik.
620
00:56:22,440 --> 00:56:29,800
Jika sebuah pemerintah memilih jalan
tidak resmi guna meminta perusahaan
621
00:56:30,040 --> 00:56:34,400
membatasi ekspresi tertentu
di platform bersangkutan,
622
00:56:35,040 --> 00:56:37,840
lambat laun perusahaan akan terdorong
623
00:56:38,040 --> 00:56:40,320
untuk memutuskan sendiri
hal-hal seperti itu.
624
00:56:40,600 --> 00:56:44,840
Pihak perusahaan akan memutuskan
makna undang-undang.
625
00:56:45,040 --> 00:56:50,400
Pihak perusahaan yang akan memutuskan
mana yang sah dan mana yang tidak,
626
00:56:50,680 --> 00:56:53,280
mana yang ilegal dan mana yang boleh.
627
00:56:53,520 --> 00:56:56,720
Pengalihan wewenang seperti itu
kepada pihak perusahaan
628
00:56:57,000 --> 00:57:01,000
seharusnya mengusik orang yang hidup
dalam masyarakat demokratis.
629
00:57:41,040 --> 00:57:43,280
Di pekerjaan ini,
630
00:57:43,520 --> 00:57:47,360
kita tidak boleh
melakukan satu kesalahan pun.
631
00:57:49,240 --> 00:57:53,800
Satu kesalahan bisa menghancurkan
hidup lebih dari satu orang.
632
00:57:54,880 --> 00:57:57,720
Kesalahan itu bisa memicu perang,
633
00:57:58,000 --> 00:58:00,760
bisa memicu perundungan
634
00:58:01,000 --> 00:58:03,360
bisa memicu bunuh diri.
635
00:58:09,160 --> 00:58:13,280
Pendapat dan jalan pikiran
para pengguna sebuah aplikasi
636
00:58:13,520 --> 00:58:16,080
tergantung kepada
para moderator konten.
637
00:58:16,320 --> 00:58:18,880
Pekerjaan kami tidak mudah.
638
00:58:58,600 --> 00:59:02,400
Sekarang ini semuanya lebih politis.
639
00:59:07,120 --> 00:59:12,000
Negara-negara saling menyerang.
640
00:59:14,080 --> 00:59:16,080
Saya kurang tertarik pada politik.
641
00:59:19,400 --> 00:59:23,320
Setiap orang harus tahu sendiri
bagaimana menyikapi sesuatu.
642
00:59:28,440 --> 00:59:33,000
Terkadang saya perlu delapan detik
untuk menilai sebuah gambar.
643
00:59:33,760 --> 00:59:36,720
Apakah akan diabaikan atau dihapus.
644
00:59:38,000 --> 00:59:40,040
Setelah itu, kita beralih.
645
00:59:40,280 --> 00:59:42,280
Itulah inti kehidupan: beralih terus.
646
01:00:06,880 --> 01:00:12,160
Sekarang ini, sebagian besar kasus
yang saya tinjau berasal dari AS,
647
01:00:12,400 --> 01:00:15,680
dari masa Donald Trump menang pemilu.
648
01:00:16,000 --> 01:00:19,320
Soalnya ada banyak penghinaan
terhadap kaum imigran,
649
01:00:20,760 --> 01:00:25,160
terhadap ras lain, seperti orang
Meksiko atau orang kulit hitam.
650
01:00:26,000 --> 01:00:28,160
PLANET KAUM MUSLIM
651
01:00:28,320 --> 01:00:30,520
Tapi itu hanya sudut pandang.
652
01:00:32,720 --> 01:00:35,120
Orang bebas berkata apa saja,
653
01:00:35,800 --> 01:00:40,320
karena kami menjunjung
kebebasan berbicara di platform kami.
654
01:00:52,040 --> 01:00:54,640
Kalau orang berkata ujaran kebencian
berbeda dari kebebasan bicara,
655
01:00:54,880 --> 01:00:56,840
atau kebebasan bicara
berbeda dari ujaran kebencian,
656
01:00:57,040 --> 01:00:59,440
mereka sama sekali keliru.
657
01:01:00,000 --> 01:01:02,520
Sebab amandemen pertama konstitusi AS
658
01:01:02,800 --> 01:01:05,880
dibuat khusus untuk hal-hal
659
01:01:06,080 --> 01:01:08,000
yang tidak ingin kita dengar.
660
01:01:08,120 --> 01:01:11,000
Saya ini dari dulu sudah sengak.
661
01:01:11,120 --> 01:01:14,320
Dari dulu saya tukang cari perkara.
662
01:01:14,600 --> 01:01:17,200
Dan akan tetap begini sampai mati.
663
01:01:18,000 --> 01:01:22,600
Platform seperti Facebook itu
bebas diakses.
664
01:01:23,480 --> 01:01:29,000
Kita harus cerdik memanfaatkan media
sosial seperti YouTube atau Facebook.
665
01:01:30,720 --> 01:01:34,000
Kita harus mampu merekam sesuatu
dan mengunggahnya.
666
01:01:38,520 --> 01:01:41,520
Menurut saya, soal pengungsi ini ...
667
01:01:42,080 --> 01:01:45,760
Jangan main buka pintu
dan biarkan sembarang orang masuk.
668
01:01:46,000 --> 01:01:49,000
Nanti ketahuan bahwa banyak
yang mengidap penyakit,
669
01:01:49,240 --> 01:01:51,680
banyak yang penjahat atau pemerkosa.
670
01:01:52,000 --> 01:01:56,600
Begitu ada polisi syariah
yang coba ceramahi istri saya,
671
01:01:56,840 --> 01:01:58,640
saya akan membuatnya babak belur.
672
01:01:58,880 --> 01:02:01,600
"Persetan denganmu, pulanglah
673
01:02:01,840 --> 01:02:04,800
ke negara sialan
dari mana kau berasal."
674
01:02:10,400 --> 01:02:14,240
MINGGU KEBEBASAN BERBICARA
BERKELEY, CALIFORNIA
675
01:02:22,680 --> 01:02:25,000
Ini Sabo, melapor dari Berkeley.
676
01:02:25,120 --> 01:02:29,880
Senang rasanya melihat
para patriot dan orang kanan.
677
01:02:30,080 --> 01:02:33,520
Ada banyak sekali orang hebat
di jalanan di sini.
678
01:02:34,000 --> 01:02:37,040
Sementara ini masih banyak polisi.
679
01:02:37,280 --> 01:02:39,440
Tapi entah sampai kapan.
680
01:02:39,720 --> 01:02:44,120
Begitu mereka pergi, saya takkan heran
kalau orang mulai berkelahi.
681
01:02:49,320 --> 01:02:52,080
Polarisasi politik di AS
begitu parah sehingga ...
682
01:02:52,320 --> 01:02:54,520
pendukung fanatik partai Demokrat
sampai tidak bisa
683
01:02:54,760 --> 01:02:57,840
berbincang dengan
pendukung fanatik partai Republikan.
684
01:02:58,440 --> 01:03:01,000
Sebabnya banyak.
Ini bukan karena Facebook,
685
01:03:01,200 --> 01:03:03,520
tapi Facebook memperuncing situasi.
686
01:03:03,800 --> 01:03:06,760
Dulu setiap warga
berhak atas pendapat sendiri,
687
01:03:07,000 --> 01:03:10,880
sekarang setiap warga berhak
atas realitas dan kebenaran sendiri,
688
01:03:11,080 --> 01:03:12,640
atas fakta sendiri.
689
01:03:12,880 --> 01:03:15,000
Facebook mendukung fakta sendiri itu
690
01:03:15,240 --> 01:03:17,840
dengan memperlihatkan hanya
yang ingin kita dengar,
691
01:03:18,160 --> 01:03:21,320
dan menyaring semua
yang tidak ingin kita dengar.
692
01:03:22,360 --> 01:03:24,720
Demokrasi mensyaratkan
693
01:03:25,000 --> 01:03:28,320
adanya aturan perilaku
dan kebenaran mendasar
694
01:03:28,600 --> 01:03:30,400
yang melandasi perdebatan.
695
01:03:30,680 --> 01:03:33,000
Kalau tidak ada aturan perilaku,
696
01:03:33,200 --> 01:03:37,320
kalau tidak ada kebenaran mendasar,
demokrasi menjadi mustahil.
697
01:03:41,760 --> 01:03:43,680
SAPALAH KAMI – KAMI DENGARKAN!
698
01:03:46,040 --> 01:03:47,880
Aku ada pertanyaan.
699
01:03:48,080 --> 01:03:51,880
Bukan begitu caranya.
Tanggapilah apa yang dia katakan.
700
01:03:52,080 --> 01:03:53,400
Aku tidak ingat.
701
01:03:53,680 --> 01:03:56,520
Jelaskan apa pemahamanmu
mengenai apa yang dia katakan?
702
01:03:56,800 --> 01:03:59,640
Apakah aku seperti orang kulit putih?
- Tunggu dulu!
703
01:03:59,880 --> 01:04:01,200
Tunggu!
704
01:04:01,520 --> 01:04:04,640
Dengarkan aku, ya?
- Kenapa kau membentakku?
705
01:04:04,880 --> 01:04:07,280
Kau berkhotbah.
- Dan kau bicara.
706
01:04:08,120 --> 01:04:10,160
Coba ulangi apa yang kukatakan.
707
01:04:10,400 --> 01:04:13,040
Kau ...
- Coba ulangi apa yang kukatakan.
708
01:04:13,280 --> 01:04:16,400
Aku kira kau frustrasi.
Kita perlu orang yang ...
709
01:04:16,680 --> 01:04:20,040
Dan apa yang kukatakan kepadamu?
Apa yang kukatakan kepadamu?
710
01:04:20,280 --> 01:04:21,840
Jangan bentak aku!
711
01:04:22,040 --> 01:04:23,640
Apa yang kukatakan kepadamu?
712
01:04:36,600 --> 01:04:40,360
Sementara orang kiri
menganggap sikap kami tidak patut.
713
01:04:43,800 --> 01:04:46,680
Kamilah yang berbekal senjata,
peluru dan pelatihan.
714
01:04:47,760 --> 01:04:50,320
Dan begitu kami bisa mulai menembak,
715
01:04:50,600 --> 01:04:54,080
segala kekonyolan ini
bakal tamat secepatnya.
716
01:05:25,000 --> 01:05:31,880
Saya tidak yakin tanggung jawab
atas kebencian di dunia
717
01:05:32,080 --> 01:05:35,360
semata-mata urusan
platform media sosial.
718
01:05:35,600 --> 01:05:38,200
Tapi menurut saya,
719
01:05:38,440 --> 01:05:44,000
perusahaan teknologi yang baru
perlu benar-benar merenungkan
720
01:05:45,520 --> 01:05:51,160
apakah keterlibatan seperti itu
patut didukung.
721
01:05:51,400 --> 01:05:53,760
Apakah telah terbentuk sistem-sistem
722
01:05:54,000 --> 01:06:01,320
yang mendorong dan menjunjung
ujaran yang sangat keterlaluan,
723
01:06:01,600 --> 01:06:07,280
bukannya ujaran yang meningkatkan
saling pengertian.
724
01:06:19,600 --> 01:06:23,680
Salah satu kesalahpahaman adalah
menerima tabiat manusia apa adanya
725
01:06:24,000 --> 01:06:28,120
sambil menganggap teknologi itu netral
dan tidak menggaungkan apa pun.
726
01:06:28,360 --> 01:06:30,000
Tapi ini tidak benar.
727
01:06:30,240 --> 01:06:32,800
Sesungguhnya teknologi memiliki bias.
728
01:06:33,040 --> 01:06:34,880
Teknologi memiliki tujuan,
729
01:06:35,080 --> 01:06:39,200
yaitu menarik perhatian
sebanyak mungkin orang.
730
01:06:39,440 --> 01:06:42,320
Apa yang bisa menarik miliaran orang
731
01:06:42,600 --> 01:06:46,800
dan mampu meraih dan mempertahankan
perhatian mereka?
732
01:06:47,040 --> 01:06:50,080
Dan bukan hanya itu, tapi juga
mendorong mereka untuk berbagi?
733
01:06:50,320 --> 01:06:53,520
Ternyata kemurkaan
sangat cocok untuk itu.
734
01:06:53,760 --> 01:06:55,520
Apakah dikehendaki atau tidak,
735
01:06:55,800 --> 01:07:01,120
Facebook lebih banyak menarik
perhatian lewat umpan penuh kemurkaan,
736
01:07:01,360 --> 01:07:03,520
dibandingkan kalau kiriman seperti itu
tidak ditampilkan.
737
01:07:04,000 --> 01:07:06,440
Yang digaungkan adalah
apa yang paling memecah-belah,
738
01:07:06,720 --> 01:07:09,320
apa yang paling parah
dan paling menakutkan.
739
01:07:09,640 --> 01:07:14,720
Segenap lingkungan itu diarahkan untuk
mengungkapkan sisi terburuk kita.
740
01:07:21,240 --> 01:07:23,120
Saya mulai dengan Anda, Pak Stretch.
741
01:07:25,000 --> 01:07:29,240
Pasar Facebook yang tumbuh paling
pesat ada di negara-negara berkembang.
742
01:07:29,600 --> 01:07:35,800
Facebook kini menjadi sarang
ujaran kebencian terhadap Rohingya,
743
01:07:36,360 --> 01:07:38,400
kaum pengungsi di Myanmar.
744
01:07:40,040 --> 01:07:45,000
Mereka sangat rentan
dan dipersekusi dengan kekerasan.
745
01:07:45,200 --> 01:07:47,880
Para pemimpin negara itu
tidak mengambil tindakan apa pun.
746
01:07:48,520 --> 01:07:50,440
Apa langkah Anda untuk memastikan
747
01:07:50,720 --> 01:07:53,680
bahwa platform Anda tidak digunakan
748
01:07:54,000 --> 01:07:56,280
untuk merongrong
demokrasi sebuah negara,
749
01:07:56,520 --> 01:08:00,000
apalagi taruhannya bukan
suara pemilih,
750
01:08:00,120 --> 01:08:01,880
melainkan nyawa orang?
751
01:08:03,560 --> 01:08:06,120
Terima kasih
untuk pertanyaan ini, Senator.
752
01:08:06,480 --> 01:08:10,440
Kami berkewajiban untuk memastikan
tidak ada penyalahgunaan ...
753
01:08:10,720 --> 01:08:13,320
Kita bicara soal nyawa manusia.
- Saya ...
754
01:08:15,240 --> 01:08:17,440
Saya tidak menyangkal itu.
755
01:08:17,680 --> 01:08:21,240
Kami harus berkontribusi
untuk mengangkat permasalahan itu,
756
01:08:21,480 --> 01:08:24,520
tapi tidak boleh digunakan
sebagai alat
757
01:08:24,760 --> 01:08:28,000
untuk mengobarkan kebencian
atau mengagungkan kekerasan.
758
01:08:34,680 --> 01:08:35,880
Anda lihat ini?
759
01:08:36,600 --> 01:08:39,040
"Berantas mereka, bunuh mereka."
760
01:08:39,280 --> 01:08:41,080
"Bunuh Kala tidak apa-apa."
761
01:08:41,840 --> 01:08:45,040
"Kala" artinya seperti "nigger"
di Amerika.
762
01:08:45,400 --> 01:08:49,360
Akun ini memiliki
sekitar 400.000 pengikut di Facebook.
763
01:08:55,320 --> 01:09:00,560
Facebook membantu
menebar kebencian terhadap Rohingya.
764
01:09:02,760 --> 01:09:05,240
Menurut PBB, Rohingya itu
765
01:09:05,480 --> 01:09:08,720
minoritas yang paling dipersekusi
di seluruh dunia.
766
01:09:14,880 --> 01:09:18,080
Di Myanmar, internet adalah
identik dengan Facebook.
767
01:09:20,600 --> 01:09:24,320
Sebagian besar orang
bahkan tidak tahu apa itu E-Mail.
768
01:09:29,040 --> 01:09:32,160
Orang menyebarluaskan
informasi palsu di Facebook.
769
01:09:33,080 --> 01:09:36,640
Orang akan populer kalau mengirim
sesuatu yang anti-Rohingya
770
01:09:36,880 --> 01:09:41,000
dan akan banyak di-like,
dikomentari dan di-share.
771
01:09:41,600 --> 01:09:44,520
Kiriman itu akan dibagikan
ribuan kali dalam satu jam.
772
01:09:44,800 --> 01:09:48,000
Jadi orang menganggapnya
sebagai informasi autentik.
773
01:09:58,000 --> 01:10:02,080
Mayoritas orang di Myanmar
membenci Rohingya.
774
01:10:03,800 --> 01:10:06,760
Pola pikir mereka semakin parah
dari hari ke hari.
775
01:10:24,720 --> 01:10:30,360
Di Bangladesh, lebih dari satu juta
Rohingya berlindung di kamp pengungsi.
776
01:10:46,160 --> 01:10:50,200
Bayi saya yang berumur dua tahun
dirampas dan dilempar ke api.
777
01:10:51,120 --> 01:10:54,080
Putra saya yang berumur lima tahun
dibuang ke sungai.
778
01:10:54,320 --> 01:10:57,600
Kami dipukuli sampai patah tulang
lalu dibakar.
779
01:10:57,840 --> 01:11:02,840
Kepala saya dihajar
dengan batang bambu.
780
01:11:03,840 --> 01:11:06,280
Kuping saya diiris.
781
01:11:07,760 --> 01:11:11,400
Saya diperkosa sambil
dipegangi oleh orang lain.
782
01:11:11,640 --> 01:11:14,440
Waktu putri saya mulai menangis,
dia dibacok tiga kali.
783
01:11:31,440 --> 01:11:34,040
Facebook harus menghentikan
kebencian ini.
784
01:12:06,680 --> 01:12:11,520
Genosida Rohingya
di Myanmar memang ...
785
01:12:12,160 --> 01:12:16,000
Ini hanya satu dari
sekian banyak dampak samping
786
01:12:16,120 --> 01:12:19,120
yang dipicu oleh sejumlah platform
787
01:12:19,360 --> 01:12:22,240
yang dibuat di California sini,
oleh segelintir orang
788
01:12:22,480 --> 01:12:24,600
yang mirip saya:
789
01:12:24,840 --> 01:12:27,440
anak muda, kulit putih, insinyur,
790
01:12:27,680 --> 01:12:31,280
dengan keputusan yang,
apakah dipikir matang atau tidak,
791
01:12:31,440 --> 01:12:34,240
memengaruhi jalan pikiran
dua miliar orang.
792
01:12:34,480 --> 01:12:37,280
Orang-orang di Myanmar
tidak punya kendali terhadap ini.
793
01:12:37,520 --> 01:12:42,880
Mereka tidak bisa melaporkan bahwa
berita bohong mengakibatkan genosida.
794
01:12:43,120 --> 01:12:45,880
Mereka ada di Facebook setiap hari,
795
01:12:46,080 --> 01:12:49,320
dan mereka melihat betapa
berita bohong memperparah genosida,
796
01:12:49,600 --> 01:12:53,680
tapi tidak punya cara untuk
melaporkannya agar ditangani.
797
01:12:54,000 --> 01:12:58,000
Kita harus sangat berhati-hati
dengan apa yang kita ciptakan.
798
01:13:24,600 --> 01:13:28,520
PEKERJAAN INI MERUSAK OTAK, MEMBUAT
KITA MENGANGGAP KEKERASAN ITU BIASA.
799
01:13:28,760 --> 01:13:32,000
MEMBUAT KITA MENGANGGAP MEMBUNUH DAN
MELEDAKKAN ORANG ITU BIASA.
800
01:13:32,160 --> 01:13:35,800
KITA MELIHAT ORANG TERKENA BOM
DAN ANGGOTA BADANNYA BERSERAKAN
801
01:13:36,040 --> 01:13:39,240
DAN KEPALA DAN KAKINYA BETERBANGAN.
802
01:13:54,800 --> 01:13:58,040
SAYA BISA SAJA
MELEWATI VIDEO SEPERTI INI,
803
01:13:58,280 --> 01:14:04,200
TAPI KALAU KETAHUAN OLEH KENDALI MUTU,
ITU TETAP DIANGGAP KESALAHAN.
804
01:14:04,440 --> 01:14:09,000
SAYA HANYA BOLEH MELAKUKAN
3 KESALAHAN DALAM SATU BULAN.
805
01:14:11,600 --> 01:14:14,200
Banyak foto yang pernah saya lihat,
806
01:14:16,360 --> 01:14:18,360
saya tidak ingat lagi.
807
01:14:26,040 --> 01:14:29,800
Beberapa video terukir dalam ingatan.
808
01:14:33,680 --> 01:14:35,520
Mula-mula kami kira itu lelucon.
809
01:14:35,760 --> 01:14:38,000
Kami tidak tahu apakah itu sungguhan.
810
01:14:39,080 --> 01:14:44,440
Seseorang mau gantung diri
dengan tali.
811
01:14:46,400 --> 01:14:48,640
Itu live, bukan diunggah.
812
01:14:48,880 --> 01:14:51,120
Betul-betul live,
ditonton oleh banyak orang.
813
01:14:51,880 --> 01:14:53,520
Mungkin ada ribuan.
814
01:14:53,800 --> 01:14:55,880
Ada komentar seperti:
815
01:14:58,440 --> 01:15:01,600
"Jangan lakukan itu,
jangan gantung diri!"
816
01:15:02,320 --> 01:15:04,240
"Jangan bunuh diri!"
817
01:15:05,240 --> 01:15:08,240
Ada yang bergurau:
"Ayo, lakukan saja! Cepatlah!"
818
01:15:12,000 --> 01:15:16,680
Selama dia tidak bunuh diri,
819
01:15:17,000 --> 01:15:20,320
kami tidak boleh menghentikan
live streamnya.
820
01:15:21,280 --> 01:15:25,400
Sebab kalau dihentikan,
kami yang akan mendapat masalah.
821
01:15:26,120 --> 01:15:29,120
Itu akan menjadi
masalah mutu di pihak kami.
822
01:15:36,880 --> 01:15:38,040
Waktu ...
823
01:15:39,360 --> 01:15:43,160
Waktu dia naik ke atas kursi
824
01:15:43,400 --> 01:15:47,680
dan memasang tali di lehernya,
825
01:15:48,400 --> 01:15:54,040
kami mulai khawatir
bahwa dia bersungguh-sungguh.
826
01:15:59,800 --> 01:16:02,000
Lalu dia bunuh diri.
827
01:16:03,000 --> 01:16:05,000
Dia menendang kursinya.
828
01:16:07,040 --> 01:16:08,440
Dia ...
829
01:16:08,680 --> 01:16:10,600
Dia meregang nyawa,
830
01:16:10,840 --> 01:16:14,320
tapi lehernya sudah patah.
831
01:17:33,080 --> 01:17:36,000
Kita jangan sampai terpengaruh
oleh video-video itu.
832
01:17:38,000 --> 01:17:40,280
Tapi reaksi orang berbeda-beda.
833
01:17:42,200 --> 01:17:46,360
Ada orang yang tidak bisa lupa
apa yang mereka lihat.
834
01:17:56,160 --> 01:17:58,680
KAMI BERTEMAN BAIK.
835
01:17:59,000 --> 01:18:01,200
SAYA MERASA KHAWATIR
836
01:18:01,440 --> 01:18:04,040
WAKTU DIA TIDAK MASUK KERJA.
837
01:18:07,240 --> 01:18:11,000
REKAN SATU TIM SAYA GANTUNG DIRI.
838
01:18:13,040 --> 01:18:15,480
WAKTU SAYA KE RUMAHNYA,
839
01:18:15,720 --> 01:18:17,000
SAYA MENEMUKANNYA SUDAH TERGANTUNG.
840
01:18:18,400 --> 01:18:20,800
DIA SPESIALIS VIDEO LIVE,
841
01:18:21,040 --> 01:18:23,600
DI MANA ORANG MENYAKITI DIRI SENDIRI.
842
01:18:24,080 --> 01:18:27,520
INI AKIBAT BURUK DARI MODERASI KONTEN.
843
01:18:27,760 --> 01:18:30,520
PIHAK PERUSAHAAN MENUTUP-NUTUPINYA.
844
01:18:40,600 --> 01:18:46,520
Waktu saya di sana,
pernah ada kasus bunuh diri.
845
01:18:54,040 --> 01:18:59,120
Saya bertugas
menangani dan mendiagnosis
846
01:18:59,480 --> 01:19:03,160
semua masalah kesehatan mental.
847
01:19:05,000 --> 01:19:09,800
Laki-laki yang bunuh diri itu
bergabung di perusahaan sejak awal.
848
01:19:14,040 --> 01:19:19,320
Waktu saya bicara dengannya,
sorot matanya pilu.
849
01:19:20,000 --> 01:19:24,760
Saya tanya apa saya bisa membantu,
tapi dia tidak enggan mengaku
850
01:19:25,000 --> 01:19:26,600
bahwa dia punya masalah.
851
01:19:31,000 --> 01:19:35,320
Dia gantung diri, di rumahnya,
di depan laptopnya,
852
01:19:37,280 --> 01:19:41,800
dengan tali di leher.
853
01:19:42,600 --> 01:19:44,840
Dengan laptop di hadapannya.
854
01:19:51,120 --> 01:19:55,000
Saya kecewa,
bahwa saya tidak bisa menolongnya.
855
01:19:57,200 --> 01:20:01,400
Tiga kali dia menghubungi atasannya
856
01:20:01,680 --> 01:20:03,840
dan minta dipindahkan.
857
01:20:04,040 --> 01:20:11,000
Kalau dia sudah minta dipindahkan,
manajemen seharusnya bertindak!
858
01:20:12,040 --> 01:20:14,800
Bisa jadi itu teriakan minta tolong.
859
01:20:33,360 --> 01:20:36,320
KITA BERIMAN KEPADA TUHAN
860
01:20:50,040 --> 01:20:53,400
Kalau ada yang kita pentingkan
dalam hidup kita,
861
01:20:54,560 --> 01:20:58,280
Kita harus terus
menyerahkan sebagian diri kita
862
01:20:58,520 --> 01:21:01,640
dan berkorban untuk hal tersebut.
863
01:21:10,800 --> 01:21:12,520
Saya berkorban, ya.
864
01:21:12,800 --> 01:21:14,840
Pengorbanan itu selalu ada.
865
01:21:16,200 --> 01:21:19,640
Dan akan selalu menjadi bagian
dari hidup saya.
866
01:21:24,520 --> 01:21:29,360
RITUAL JUMAT AGUNG
DI DEKAT MANILA
867
01:21:45,880 --> 01:21:49,600
Tugas saya adalah menghalau
gambar yang mengandung dosa.
868
01:21:51,480 --> 01:21:53,320
Sayalah yang mencegahnya.
869
01:21:56,040 --> 01:21:57,840
Kita harus mencegah dosa
870
01:21:58,040 --> 01:22:01,600
agar jangan menyebar
di media sosial.
871
01:22:24,000 --> 01:22:27,200
Saya berbeda dibandingkan dulu.
872
01:22:28,320 --> 01:22:33,240
Sepertinya ada virus dalam diri saya,
873
01:22:33,760 --> 01:22:39,600
yang pelan-pelan menembus otak saya,
874
01:22:39,840 --> 01:22:43,880
dan tubuh saya bereaksi...
875
01:22:44,080 --> 01:22:47,600
Saya setiap hari
bekerja sebagai moderator konten.
876
01:22:48,240 --> 01:22:50,120
Lalu saya berhenti.
877
01:22:51,040 --> 01:22:54,000
Saya harus berhenti.
Ada yang tidak benar di sini.
878
01:23:09,200 --> 01:23:10,800
Suatu hari saya bertanya sendiri:
879
01:23:11,040 --> 01:23:12,640
Untuk apa saya melakukan ini?
880
01:23:18,280 --> 01:23:21,440
Hanya agar orang-orang
merasa aman di dunia maya?
881
01:23:22,600 --> 01:23:26,520
Padahal pekerjaan kita sehari-hari pun
tidak aman untuk kita.
882
01:23:32,000 --> 01:23:34,040
Kita memperbudak diri sendiri.
883
01:23:35,400 --> 01:23:37,640
Kita jangan menganggap
bahwa itu tidak apa-apa,
884
01:23:37,880 --> 01:23:39,240
sebab nyatanya tidak begitu.
885
01:23:54,040 --> 01:23:57,000
Kita harus menghadapi kenyataan.
886
01:24:51,720 --> 01:24:55,360
Diperlukan keberanian untuk
memilih harapan, bukan ketakutan.
887
01:24:56,520 --> 01:25:01,120
Untuk berkata kita bisa menjadikan
sesuatu lebih baik dari sebelumnya.
888
01:25:01,600 --> 01:25:05,160
Kita harus optimistis untuk percaya
bahwa kita bisa mengubah dunia.
889
01:25:05,840 --> 01:25:09,240
Kita melakukan hal itu,
koneksi demi koneksi.
890
01:25:11,000 --> 01:25:13,600
Dengan inovasi demi inovasi.
891
01:25:14,600 --> 01:25:17,880
Hari demi hari demi hari.
892
01:25:19,880 --> 01:25:23,880
Karena itu saya merasa bahwa
pekerjaan yang kita lakukan bersama
893
01:25:24,080 --> 01:25:26,800
kini lebih penting
dibandingkan kapan pun sebelumnya.
894
01:26:02,520 --> 01:26:07,640
PENGAMBILAN GAMBAR DILAKUKAN DI SALAH SATU
LANTAI TAKTERPAKAI DI KANTOR ASLI DI MANILA.
895
01:26:07,800 --> 01:26:11,560
SEMUA MODERATOR KONTEN YANG TAMPIL
TELAH BERHENTI SAAT PROGRAM DISIARKAN.
896
01:26:11,720 --> 01:26:13,560
ADA JUGA YANG TERPAKSA ANONIM.
897
01:26:13,720 --> 01:26:16,280
SEMUA CUPLIKAN DI DALAM FILM
898
01:26:16,440 --> 01:26:19,320
BERASAL DARI KOMUNIKASI KAMI
DENGAN MEREKA.
899
01:26:20,400 --> 01:26:24,440
FACEBOOK, TWITTER, DAN YOUTUBE
TIDAK MENANGGAPI PERMINTAAN WAWANCARA.
900
01:26:24,600 --> 01:26:27,880
UCAPAN TERIMA KASIH KAMI TUJUKAN
KEPADA PARA MODERATOR KONTEN
901
01:26:28,040 --> 01:26:30,360
ATAS KEBERANIAN MEREKA
BERBAGI CERITA DENGAN KITA.
73381
Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.