All language subtitles for Last.Week.Tonight.with.John.Oliver.S12E02
Afrikaans
Akan
Albanian
Amharic
Arabic
Armenian
Azerbaijani
Basque
Belarusian
Bemba
Bengali
Bihari
Bosnian
Breton
Bulgarian
Cambodian
Catalan
Cebuano
Cherokee
Chichewa
Chinese (Simplified)
Chinese (Traditional)
Corsican
Croatian
Czech
Danish
Dutch
English
Esperanto
Estonian
Ewe
Faroese
Filipino
Finnish
French
Frisian
Ga
Galician
Georgian
German
Greek
Guarani
Gujarati
Haitian Creole
Hausa
Hawaiian
Hebrew
Hindi
Hmong
Hungarian
Icelandic
Igbo
Indonesian
Interlingua
Irish
Italian
Japanese
Javanese
Kannada
Kazakh
Kinyarwanda
Kirundi
Kongo
Korean
Krio (Sierra Leone)
Kurdish
Kurdish (Soranî)
Kyrgyz
Laothian
Latin
Latvian
Lingala
Lithuanian
Lozi
Luganda
Luo
Luxembourgish
Macedonian
Malagasy
Malay
Malayalam
Maltese
Maori
Marathi
Mauritian Creole
Moldavian
Mongolian
Myanmar (Burmese)
Montenegrin
Nepali
Nigerian Pidgin
Northern Sotho
Norwegian
Norwegian (Nynorsk)
Occitan
Oriya
Oromo
Pashto
Persian
Polish
Portuguese (Brazil)
Portuguese (Portugal)
Punjabi
Quechua
Romanian
Romansh
Runyakitara
Russian
Samoan
Scots Gaelic
Serbian
Serbo-Croatian
Sesotho
Setswana
Seychellois Creole
Shona
Sindhi
Sinhalese
Slovak
Slovenian
Somali
Spanish
Spanish (Latin American)
Sundanese
Swahili
Swedish
Tajik
Tamil
Tatar
Telugu
Thai
Tigrinya
Tonga
Tshiluba
Tumbuka
Turkish
Turkmen
Twi
Uighur
Ukrainian
Urdu
Uzbek
Vietnamese
Welsh
Wolof
Xhosa
Yiddish
Yoruba
Zulu
Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated:
1
00:00:31,264 --> 00:00:34,167
Bem-vindos ao Last Week Tonight.
2
00:00:34,234 --> 00:00:36,336
Eu sou John Oliver.
Muito obrigado pela companhia.
3
00:00:36,403 --> 00:00:37,904
Foi uma semana cheia.
4
00:00:37,971 --> 00:00:41,174
No Brasil, Jair Bolsonaro foi acusado
por uma tentativa de golpe,
5
00:00:41,241 --> 00:00:43,143
e nos EUA, Trump disse à Ucrânia
6
00:00:43,209 --> 00:00:45,879
que nunca deveriam ter começado
a guerra com a Rússia.
7
00:00:45,945 --> 00:00:48,891
E também, ele arrumou tempo para falar
com a imprensa no avião presidencial
8
00:00:48,915 --> 00:00:50,617
para dar um recado importante:
9
00:00:51,051 --> 00:00:53,787
Vamos entrar no Fort Knox
para garantir que o ouro esteja lá.
10
00:00:54,421 --> 00:00:57,690
Sabiam? Vamos entrar no Fort Knox.
Sabiam disso?
11
00:00:59,592 --> 00:01:00,760
Que turbulência.
12
00:01:00,827 --> 00:01:04,597
Vamos entrar no famoso Fort Knox
para garantir que o ouro esteja lá.
13
00:01:05,865 --> 00:01:07,300
{\an8}Aonde o ouro poderia ter ido?
14
00:01:07,767 --> 00:01:09,807
Se o ouro não estiver lá,
vamos ficar bem chateados.
15
00:01:10,470 --> 00:01:14,674
Fora o "que turbulência"
com uma voz de pato,
16
00:01:15,675 --> 00:01:19,579
ele está falando de uma teoria louca
da direita que o ouro sumiu.
17
00:01:19,646 --> 00:01:21,481
Só para constar,
no primeiro mandato de Trump,
18
00:01:21,548 --> 00:01:24,484
o secretário do Tesouro,
Steve Mnuchin foi até lá.
19
00:01:24,551 --> 00:01:27,954
E pela lei de informação,
nós conseguimos essa foto
20
00:01:28,021 --> 00:01:29,956
onde claramente se vê o ouro.
21
00:01:30,023 --> 00:01:34,494
Sei que é difícil de ver
com esse gostosão na frente,
22
00:01:34,561 --> 00:01:36,696
mas eu juro que está ali.
23
00:01:37,097 --> 00:01:40,400
Também vimos o DOGE de Elon Musk
demitir mais funcionários públicos,
24
00:01:40,467 --> 00:01:43,303
o que ele comemorou com uma motosserra
na C-PAC:
25
00:01:48,341 --> 00:01:51,478
Essa é a motosserra para a burocracia!
26
00:01:52,479 --> 00:01:53,613
Motosserra!
27
00:01:54,314 --> 00:01:58,251
Primeiro, é possível que Elon Musk,
o homem mais rico do mundo,
28
00:01:58,318 --> 00:02:01,221
ache que o barulho de uma motosserra
é "motosserra"?
29
00:02:02,355 --> 00:02:05,358
Segundo, não posso falar legalmente
o que eu quero que aconteça ali,
30
00:02:05,425 --> 00:02:08,695
mas posso pensar com muita força,
e estou fazendo isso agora.
31
00:02:09,596 --> 00:02:12,532
A motosserra pode ser uma boa metáfora
para o DOGE,
32
00:02:12,599 --> 00:02:15,869
já que Musk está cortando rapidamente
e sem muita precisão.
33
00:02:16,369 --> 00:02:18,872
O governo já precisou várias vezes
recontratar funcionários
34
00:02:18,938 --> 00:02:20,483
que eles de repente perceberam
que eram essenciais.
35
00:02:20,507 --> 00:02:23,576
Na segunda soubemos que estavam tentando
recontratar mais de 300 funcionários
36
00:02:23,643 --> 00:02:26,012
responsáveis por cuidar
das armas nucleares dos EUA,
37
00:02:26,079 --> 00:02:29,182
depois da terça o USDA disse
ter demitido funcionários
38
00:02:29,249 --> 00:02:32,318
que trabalhavam na resposta
à gripe aviária.
39
00:02:32,752 --> 00:02:35,688
Também cortaram funcionários
no Serviço Nacional de Parques.
40
00:02:35,755 --> 00:02:39,926
E em protesto, uma funcionária demitida
avisou o que isso poderia causar:
41
00:02:40,527 --> 00:02:43,730
{\an8}Nas suas de férias no verão, tomara
que não tenham incêndios florestais,
42
00:02:43,796 --> 00:02:47,033
{\an8}porque eu e milhares de colegas
43
00:02:47,100 --> 00:02:51,037
nos serviços nacionais de parques
44
00:02:51,104 --> 00:02:53,039
não estaremos lá
para ajudar com os incêndios.
45
00:02:53,506 --> 00:02:54,941
Então boa sorte com isso.
46
00:02:55,441 --> 00:02:59,679
É, os guardas florestais fazem mais
que catar lixo, dar passeios
47
00:02:59,746 --> 00:03:02,148
e, julgando por ela, servir visuais.
48
00:03:02,549 --> 00:03:05,351
Os brincos, as tranças,
os óculos escuros.
49
00:03:05,418 --> 00:03:07,887
Ela parece o Homem do Chapéu Amarelo,
mas se ele arrasasse.
50
00:03:08,721 --> 00:03:11,791
E atacar os funcionários dos parques
não foi só imprudente,
51
00:03:11,858 --> 00:03:14,561
foi um ataque aos melhores do país.
52
00:03:14,827 --> 00:03:17,430
São pessoas introvertidas
que amam ficar ao ar livre.
53
00:03:17,497 --> 00:03:20,300
Vejam esse parque dos guardas
do Parque Nacional de Badlands
54
00:03:20,366 --> 00:03:22,535
sobre o que os visitantes
não podem tocar:
55
00:03:23,203 --> 00:03:24,370
Não toque nisso
56
00:03:26,739 --> 00:03:27,740
Não toque nisso
57
00:03:30,310 --> 00:03:31,344
Não toque nisso
58
00:03:33,947 --> 00:03:35,081
Não toque nisso
59
00:03:35,148 --> 00:03:36,282
É perfeito!
60
00:03:36,349 --> 00:03:38,885
Protejam esses bobos a todo custo!
61
00:03:39,285 --> 00:03:41,254
Vocês imaginam as festas de Natal deles?
62
00:03:41,321 --> 00:03:42,789
Um monte de amantes da natureza
63
00:03:42,855 --> 00:03:45,325
dando calendários da folha do mês
um ao outro
64
00:03:45,391 --> 00:03:48,595
e ficando bêbados de cair
com Shirley Temples com álcool.
65
00:03:48,995 --> 00:03:51,831
E eles são comprometidos à mensagem
de não tocar na fauna.
66
00:03:51,898 --> 00:03:54,968
Eles postam tuites como:
"Não faça carinho nas vacas peludas."
67
00:03:55,034 --> 00:03:58,271
E continuam: "Nos parques nacionais
você não acaricia os bisões,
68
00:03:58,338 --> 00:04:00,840
eles acariciam você
se você chegar muito perto."
69
00:04:00,907 --> 00:04:03,576
E eu vou dizer:
Não me ameace com uma coisa boa.
70
00:04:04,978 --> 00:04:07,747
Essa vaca de ombros largos
e cabelo de Patrick Dempsey
71
00:04:07,814 --> 00:04:09,182
pode me montar como nunca.
72
00:04:09,249 --> 00:04:14,220
Não tem ninguém no mundo que não queira
uma sacanagem com esse grandão.
73
00:04:15,188 --> 00:04:20,093
Depois de muitos protestos,
eles readmitiram alguns funcionários,
74
00:04:20,159 --> 00:04:23,763
mostrando duas coisas:
Esse governo pode ser pressionado,
75
00:04:23,830 --> 00:04:26,399
e eles não fazem ideia
do que estão fazendo.
76
00:04:26,933 --> 00:04:30,436
E nada deixa isso mais claro
do que o site do DOGE
77
00:04:30,503 --> 00:04:32,071
postando recibos dos cortes.
78
00:04:32,138 --> 00:04:35,174
Eles dizem que pouparam um total
de $55 bilhões.
79
00:04:35,241 --> 00:04:38,211
Isso se desmentiu imediatamente
assim que descobriram
80
00:04:38,278 --> 00:04:41,781
que só se mostravam provas
para $16 bilhões poupados.
81
00:04:41,848 --> 00:04:45,685
E mesmo esse número era errado,
já que erraram um contrato cancelado
82
00:04:45,752 --> 00:04:48,788
que diziam valer $8 bilhões,
no lugar de $8 milhões.
83
00:04:49,656 --> 00:04:53,593
E ao descartar outras coisas,
como contratos que não foram encerrados,
84
00:04:53,660 --> 00:04:57,397
a NPR descobriu que o total poupado,
com base nos recibos publicados,
85
00:04:57,463 --> 00:04:58,865
era próximo de $2 bilhões.
86
00:04:58,931 --> 00:05:02,769
O que fica a muitos números de distância
de $55 bilhões.
87
00:05:03,336 --> 00:05:06,806
Na verdade, não há uma distância
tão grande entre publicidade e realidade
88
00:05:06,873 --> 00:05:10,576
desde a Experiência Wonka
de Glasgow acabar sendo isso.
89
00:05:11,277 --> 00:05:13,680
No momento, somos todos ela.
90
00:05:14,547 --> 00:05:17,250
E essa não foi a única grande
declaração que se desmoronou.
91
00:05:17,317 --> 00:05:20,353
Há uma semana, Musk postou
essa tabela mostrando milhões de pessoas
92
00:05:20,420 --> 00:05:21,854
na base de dados do Seguro Social
93
00:05:21,921 --> 00:05:23,122
com mais de cem anos.
94
00:05:23,189 --> 00:05:25,224
Ele disse: "Talvez Crepúsculo seja real
95
00:05:25,291 --> 00:05:29,362
e muitos vampiros recebam
aposentadoria", com emojis de riso,
96
00:05:29,429 --> 00:05:32,465
porque ele tem
um senso de humor incrível.
97
00:05:33,299 --> 00:05:36,703
Trump amplificou essa declaração
em uma coletiva de imprensa:
98
00:05:37,203 --> 00:05:40,506
{\an8}Quando eu vi os números
do Seguro Social, eu disse:
99
00:05:40,573 --> 00:05:42,675
{\an8}"Nossa. Impressionante."
100
00:05:42,742 --> 00:05:46,579
{\an8}Com mais de cem anos,
101
00:05:46,646 --> 00:05:50,116
{\an8}temos milhões e milhões de pessoas,
102
00:05:50,183 --> 00:05:51,451
{\an8}todos sabem que não é assim.
103
00:05:51,517 --> 00:05:56,255
{\an8}Pessoas de 150 a 159 anos.
104
00:05:57,290 --> 00:06:00,660
{\an8}No total, 1.345.000.
105
00:06:01,060 --> 00:06:03,563
{\an8}A propósito,
isso está nos arquivos do computador,
106
00:06:03,629 --> 00:06:05,064
{\an8}isso é o que eles fazem bem.
107
00:06:06,165 --> 00:06:09,602
{\an8}Eu perguntei ao Elon,
quem é esse pessoal do DOGE?
108
00:06:10,303 --> 00:06:13,406
{\an8}Ele disse que são pessoas brilhantes
com computadores e que amam o país.
109
00:06:13,940 --> 00:06:16,976
Certo. Ele claramente está lendo isso
pela primeira vez,
110
00:06:17,043 --> 00:06:19,645
porque ninguém diz
"nossa, impressionante",
111
00:06:19,712 --> 00:06:21,214
se sabe do que está falando.
112
00:06:21,547 --> 00:06:24,117
Diz "impressionante"
quando seu filho te dá
113
00:06:24,183 --> 00:06:26,352
um desenho da família
e você não sabe onde você acaba
114
00:06:26,419 --> 00:06:27,820
e o seu cachorro começa.
115
00:06:28,488 --> 00:06:30,490
Quanto às "pessoas brilhantes
com computadores",
116
00:06:30,556 --> 00:06:32,492
acabou que não são tão brilhantes.
117
00:06:32,825 --> 00:06:34,660
Porque parece que a tabela veio
118
00:06:34,727 --> 00:06:36,105
de uma base de dados do Seguro Social
119
00:06:36,129 --> 00:06:38,464
com dados básicos
de todos os números de identificação
120
00:06:38,531 --> 00:06:39,699
que já foram criados.
121
00:06:39,766 --> 00:06:43,770
Uma auditoria de 2023
encontrou 19 milhões de pessoas
122
00:06:43,836 --> 00:06:45,581
de mais de cem anos
sem uma morte registrada,
123
00:06:45,605 --> 00:06:48,408
mas uma coisa crucial:
O próprio Seguro Social viu
124
00:06:48,474 --> 00:06:51,644
que quase nenhum deles
recebia da agência,
125
00:06:51,711 --> 00:06:56,282
e custaria entre $5,5 e $10 milhões
para corrigir o erro.
126
00:06:56,349 --> 00:06:59,619
O que é muito mais
do que se economizaria.
127
00:06:59,685 --> 00:07:01,120
E essa é a questão.
128
00:07:01,687 --> 00:07:03,723
Por mais que Trump e Musk se gabem,
129
00:07:03,790 --> 00:07:07,226
muitos cortes deles são aleatórios,
desorganizados e simplesmente estúpidos.
130
00:07:07,727 --> 00:07:11,497
Conforme os danos reais e substanciais
disso ficam mais claros,
131
00:07:11,564 --> 00:07:15,268
eu imagino que imagens como Elon
com uma motosserra
132
00:07:15,334 --> 00:07:18,204
vestido de Morte
após encher a cara em Las Vegas
133
00:07:18,771 --> 00:07:20,873
vão gerar muita indignação pública,
134
00:07:20,940 --> 00:07:24,010
e quando eles estiverem com essa raiva
direcionada para eles,
135
00:07:24,076 --> 00:07:27,380
usando as palavras
de uma guarda florestal furiosa:
136
00:07:28,147 --> 00:07:29,182
Boa sorte com isso.
137
00:07:29,549 --> 00:07:30,716
Exatamente.
138
00:07:30,783 --> 00:07:32,151
E agora, isso:
139
00:07:32,919 --> 00:07:36,856
E agora, Frankie Jupiter, da CBS 58
140
00:07:36,923 --> 00:07:38,925
sabe jogar conversa fora.
141
00:07:39,392 --> 00:07:40,426
{\an8}Onde está a Peaches?
142
00:07:40,493 --> 00:07:42,128
{\an8}Está em casa, deitada com o pai.
143
00:07:42,695 --> 00:07:44,106
{\an8}Mas não se preocupe,
eu ainda sou a preferida.
144
00:07:44,130 --> 00:07:45,164
{\an8}Certo...
145
00:07:45,231 --> 00:07:46,933
{\an8}- Sem dúvidas.
- Mas tem certeza?
146
00:07:46,999 --> 00:07:48,034
{\an8}Tenho!
147
00:07:48,100 --> 00:07:50,002
{\an8}Você sabe quando é a favorita
do seu cachorro.
148
00:07:50,369 --> 00:07:52,371
{\an8}Não sei como, mas você sabe.
149
00:07:52,672 --> 00:07:54,807
{\an8}E já comprei duas fantasias
de Halloween para ela.
150
00:07:54,874 --> 00:07:56,342
{\an8}E ela amou.
151
00:07:56,409 --> 00:07:57,510
{\an8}Mas tem certeza?
152
00:07:57,910 --> 00:07:59,946
{\an8}Como vocês estão?
153
00:08:00,079 --> 00:08:01,214
{\an8}- Bem!
- Bem?
154
00:08:01,280 --> 00:08:03,082
{\an8}- Sim, e você?
- Eu estou bem. E você?
155
00:08:03,149 --> 00:08:04,584
Maravilha. Sem reclamações.
156
00:08:04,884 --> 00:08:06,219
Bem...
157
00:08:06,285 --> 00:08:07,954
É sexta-feira 13.
158
00:08:08,020 --> 00:08:09,055
Pois é.
159
00:08:09,121 --> 00:08:11,290
- Eu não tinha percebido.
- É. Cadê o guarda-chuva?
160
00:08:11,357 --> 00:08:12,758
Precisamos de um gato preto.
161
00:08:13,726 --> 00:08:15,027
E um espelho para quebrar.
162
00:08:15,561 --> 00:08:16,762
Frankie tem um espelho.
163
00:08:16,829 --> 00:08:18,498
Esperem, esperem!
164
00:08:18,998 --> 00:08:21,300
Se tivesse comprado ações da Apple,
não estaria aqui hoje.
165
00:08:22,034 --> 00:08:23,069
Verdade.
166
00:08:23,135 --> 00:08:24,935
Ia administrar sua própria
empresa milionária.
167
00:08:24,971 --> 00:08:26,005
Também é verdade.
168
00:08:26,072 --> 00:08:28,975
- E isso seria melhor?
- Seria.
169
00:08:29,342 --> 00:08:31,043
{\an8}Mas não parece uma sexta-feira?
170
00:08:31,110 --> 00:08:32,278
{\an8}Não.
171
00:08:32,912 --> 00:08:34,347
Já quiseram ser astronautas?
172
00:08:35,414 --> 00:08:36,449
Não.
173
00:08:36,516 --> 00:08:38,751
O que você quer hoje?
Talvez queira comprar algo bonito.
174
00:08:39,585 --> 00:08:40,620
Eu estou tranquilo.
175
00:08:40,853 --> 00:08:42,531
{\an8}Quem acham que seríamos
se fôssemos os Beatles?
176
00:08:42,555 --> 00:08:43,589
{\an8}Eu seria o Ringo?
177
00:08:43,656 --> 00:08:44,690
{\an8}Quem você quer ser?
178
00:08:44,757 --> 00:08:45,791
{\an8}Tanto faz.
179
00:08:45,858 --> 00:08:46,993
{\an8}Você é quem quiser ser.
180
00:08:47,059 --> 00:08:48,261
{\an8}Quem você quer ser? O Paul?
181
00:08:48,327 --> 00:08:49,662
Eu fico com quem sobrar.
182
00:08:50,062 --> 00:08:51,364
Quem você quer ser?
183
00:08:52,465 --> 00:08:54,233
Eu só estou aqui para não ser demitido.
184
00:08:54,300 --> 00:08:56,002
E AGORA
185
00:08:56,969 --> 00:08:58,337
Continuando.
186
00:08:58,404 --> 00:09:02,842
O tema de hoje é sobre tecnologia,
o que nos deu ferramentas de pedra,
187
00:09:02,909 --> 00:09:05,678
catapultas, Tamagotchi
e algum dia, se Deus quiser,
188
00:09:05,745 --> 00:09:07,480
uma quarta coisa que valha a pena.
189
00:09:08,281 --> 00:09:10,082
Uma das grandes notícias
na eleição passada
190
00:09:10,149 --> 00:09:12,818
foi como a indústria da tecnologia
foi para o lado de Trump.
191
00:09:12,885 --> 00:09:15,555
Elon Musk fez campanha e pulou por ele,
192
00:09:15,888 --> 00:09:19,158
Jeff Bezos não deixou o Washington Post
apoiar Kamala Harris
193
00:09:19,225 --> 00:09:21,427
e recebeu um lugar de honra
na cerimônia de posse
194
00:09:21,494 --> 00:09:23,996
com os presidentes da Google e Apple.
195
00:09:24,063 --> 00:09:27,166
Mas uma das mudanças mais visíveis
foi a de Mark Zuckerberg.
196
00:09:27,233 --> 00:09:29,702
Ele teve uma decisão famosa
de banir Trump do Facebook
197
00:09:29,769 --> 00:09:30,803
depois do 6 de janeiro,
198
00:09:30,870 --> 00:09:33,940
mas mês passado ele organizou
uma festa durante a posse,
199
00:09:34,006 --> 00:09:36,976
e duas semanas antes ele fez
essa declaração surpreendente:
200
00:09:37,610 --> 00:09:38,778
Oi, pessoal.
201
00:09:38,844 --> 00:09:40,780
Eu quero falar hoje
sobre uma coisa importante.
202
00:09:40,846 --> 00:09:42,566
Está na hora de voltarmos
para nossas raízes
203
00:09:42,615 --> 00:09:45,351
com a liberdade de expressão
no Facebook e Instagram.
204
00:09:45,418 --> 00:09:47,153
Era disso que você queria falar?
205
00:09:47,219 --> 00:09:49,355
Porque sinceramente, eu prefiro falar
206
00:09:49,422 --> 00:09:52,325
por que você parece o Eddie Redmayne
tentando interpretar o Ice Cube.
207
00:09:53,059 --> 00:09:54,594
Parece um Macklemore branco.
208
00:09:54,860 --> 00:09:58,564
Parece um aluno do ensino médio
disfarçado como outro com menos amigos.
209
00:09:58,631 --> 00:10:01,901
Mas perdão, você estava falando
em voltar para suas raízes:
210
00:10:02,735 --> 00:10:05,204
Primeiro, vamos nos livrar
das checagens de fatos
211
00:10:05,271 --> 00:10:07,206
e substituir por notas da comunidade,
212
00:10:07,273 --> 00:10:09,208
como no X, e vamos começar pelos EUA.
213
00:10:09,475 --> 00:10:12,745
Segundo, vamos simplificar
nossas políticas de conteúdo
214
00:10:12,812 --> 00:10:16,382
e eliminar restrições em temas
como imigração e gênero
215
00:10:16,449 --> 00:10:18,851
que estão fora do tom
com o discurso geral.
216
00:10:18,918 --> 00:10:22,588
Terceiro, vamos mudar como reforçamos
nossas políticas
217
00:10:22,655 --> 00:10:26,926
para reduzir os erros que levam a grande
parte da censura nas nossas plataformas.
218
00:10:27,860 --> 00:10:31,130
Nós tínhamos filtros que buscavam
por qualquer violação de políticas.
219
00:10:31,631 --> 00:10:36,202
Agora vamos concentrar os filtros
em violações ilegais e muito severas.
220
00:10:36,802 --> 00:10:39,772
Para violações menores, vamos confiar
221
00:10:39,839 --> 00:10:42,308
que alguém denuncie o problema
antes de agirmos.
222
00:10:42,675 --> 00:10:46,345
É, o CEO da Meta anunciou
que vai tirar a checagem de fatos
223
00:10:46,412 --> 00:10:49,882
para não ficar "fora do tom
do discurso geral"
224
00:10:49,949 --> 00:10:52,952
enquanto mostra um relógio de $900.000.
225
00:10:53,419 --> 00:10:57,757
Não tem como um relógio valer tanto,
a menos que ele diga:
226
00:10:57,823 --> 00:10:59,568
"Está na hora de doar o resto
do seu dinheiro,
227
00:10:59,592 --> 00:11:01,827
parece que você oficialmente
já tem demais."
228
00:11:02,395 --> 00:11:04,830
As mudanças de Zuckerberg surpreendem.
229
00:11:04,897 --> 00:11:07,500
Um documento vazado mostra
que agora é aceitável dizer:
230
00:11:07,566 --> 00:11:09,835
"Imigrantes são uns merdas nojentos".
231
00:11:09,902 --> 00:11:12,605
E também especifica
que xingamentos a pessoas trans
232
00:11:12,672 --> 00:11:15,775
não se classificam como xingamentos,
e agora são permitidos.
233
00:11:16,142 --> 00:11:18,844
Quanto ao uso de notas da comunidade
seguindo o exemplo do X,
234
00:11:18,911 --> 00:11:22,381
vale notar que elas não fizeram
um grande sucesso.
235
00:11:22,682 --> 00:11:25,518
Um estudo mostra que quase três quartos
das notas da comunidade
236
00:11:25,584 --> 00:11:27,086
sobre desinformação eleitoral
237
00:11:27,153 --> 00:11:28,621
nunca foram mostradas aos usuários.
238
00:11:28,688 --> 00:11:31,991
Lembra do tuite acusando falsamente
haitianos de comerem bichos de estimação
239
00:11:32,058 --> 00:11:33,392
em Springfield, Ohio?
240
00:11:33,459 --> 00:11:38,631
Foi a mentira do ano no PolitiFact,
mas ainda não tem notas da comunidade
241
00:11:38,698 --> 00:11:41,267
nesse tuite, apesar das várias
tentativas de acrescentar uma.
242
00:11:41,333 --> 00:11:44,670
E tudo isso é uma mudança notável
para Zuckerberg,
243
00:11:44,737 --> 00:11:48,340
porque há sete anos, durante
uma revolta sobre o Facebook
244
00:11:48,407 --> 00:11:51,877
espalhando desinformação e ódio,
ele foi ao Congresso se desculpar:
245
00:11:52,645 --> 00:11:54,580
{\an8}Em maior parte da nossa história,
246
00:11:54,647 --> 00:11:57,383
{\an8}nós focamos nas coisas boas
de conectar as pessoas.
247
00:11:57,450 --> 00:12:00,853
{\an8}Mas é claro que não fizemos o bastante
para impedir essas ferramentas
248
00:12:00,920 --> 00:12:02,788
{\an8}de serem usadas para o mal também.
249
00:12:03,055 --> 00:12:05,057
{\an8}E isso é sobre notícias falsas,
250
00:12:05,124 --> 00:12:06,692
{\an8}intervenção estrangeira nas eleições
251
00:12:06,759 --> 00:12:10,096
{\an8}e discurso de ódio,
assim como privacidade de dados.
252
00:12:11,130 --> 00:12:14,500
{\an8}Não tivemos uma visão ampla o bastante
da nossa responsabilidade,
253
00:12:14,567 --> 00:12:15,935
{\an8}e isso foi um grande erro.
254
00:12:16,569 --> 00:12:18,637
{\an8}Foi um erro meu. E eu sinto muito.
255
00:12:19,605 --> 00:12:24,009
É, parece que esse fantasma vitoriano
fez uma mudança muito grande,
256
00:12:24,076 --> 00:12:26,679
não só no que ele diz,
mas na aparência dele.
257
00:12:26,746 --> 00:12:29,815
E eu admito, o novo Zuckerberg
parece se divertir mais.
258
00:12:30,583 --> 00:12:33,786
Ele está bronzeado, parece comprar
em lojas que só aceitam criptomoedas
259
00:12:33,853 --> 00:12:38,290
e não está no Congresso parecendo
uma versão triste do boneco do "Stonks".
260
00:12:39,925 --> 00:12:42,561
Zuckerberg está dizendo que isso
é apenas uma resposta
261
00:12:42,628 --> 00:12:44,130
a uma mudança cultural mais ampla,
262
00:12:44,196 --> 00:12:47,133
algo que, naturalmente, ele definiu
com Joe Rogan:
263
00:12:47,733 --> 00:12:50,703
O que fazemos é criar uma plataforma
que dá voz para as pessoas,
264
00:12:50,770 --> 00:12:55,007
mas sei que existe
uma mudança geracional
265
00:12:55,574 --> 00:12:57,643
em quem está sendo ouvido.
266
00:12:57,710 --> 00:13:03,149
É uma mudança grande, dizendo:
"Confiamos em pessoas diferentes".
267
00:13:03,449 --> 00:13:04,483
Sei.
268
00:13:04,550 --> 00:13:09,255
"Eles vão nos contar a verdade,
e não dar as opiniões de merda
269
00:13:09,321 --> 00:13:12,958
que você precisa dar,
mas o tipo de coisa que eu,
270
00:13:13,025 --> 00:13:15,594
quando estou na sala de casa
com meus amigos,
271
00:13:15,661 --> 00:13:17,301
as coisas que sabemos
que são de verdade."
272
00:13:17,329 --> 00:13:21,333
Tem alguma coisa mais incômoda
do que um bilionário
273
00:13:21,400 --> 00:13:23,469
tentando parecer um homem comum?
274
00:13:23,536 --> 00:13:26,672
Sabe como é,
ficar na sala com os parceiros,
275
00:13:26,739 --> 00:13:29,375
abrindo um engradado
de Ace of Spades magnum,
276
00:13:29,441 --> 00:13:32,878
sentados em um sofá de diamantes
e ligando a televisão,
277
00:13:32,945 --> 00:13:35,881
que na minha casa é uma caixa vazia
onde o elenco de The Office
278
00:13:35,948 --> 00:13:37,125
recria minhas cenas favoritas.
279
00:13:37,149 --> 00:13:40,586
Coisas que acontecem
com todo mundo, pessoal!
280
00:13:40,653 --> 00:13:45,591
E olhem, eu não digo que o Facebook
moderava o conteúdo perfeitamente.
281
00:13:45,658 --> 00:13:48,327
Nós os criticamos várias vezes
aqui no programa.
282
00:13:48,594 --> 00:13:51,497
Também não estou dizendo
que poderiam fazer perfeitamente.
283
00:13:51,564 --> 00:13:54,767
Dizem que é impossível
moderar bem algum conteúdo
284
00:13:54,834 --> 00:13:56,101
em grande escala.
285
00:13:56,168 --> 00:13:58,838
Mas a decisão de abandonar
as checagens de fatos
286
00:13:58,904 --> 00:14:02,675
e desligar os sistemas que diziam
deixar a plataforma mais segura
287
00:14:02,741 --> 00:14:05,878
parece indicar que o site
vai ficar muito pior.
288
00:14:06,312 --> 00:14:09,882
E Zuckerberg, cujo nome de rapper
é Pequeno Brócolis,
289
00:14:10,216 --> 00:14:14,854
como alguém que está abraçando
as raízes da empresa
290
00:14:14,920 --> 00:14:17,560
sobre liberdade de expressão,
serve uma mentira para o bem próprio.
291
00:14:17,623 --> 00:14:21,460
Com tudo isso, hoje à noite
nós vamos ver os desafios
292
00:14:21,527 --> 00:14:24,363
da moderação de conteúdo,
como o Facebook lidava com elas antes
293
00:14:24,430 --> 00:14:26,232
e o que teria levado
a uma nova abordagem.
294
00:14:26,298 --> 00:14:27,766
Vamos começar pelos desafios.
295
00:14:27,833 --> 00:14:32,738
Desde o início da internet moderna,
havia preocupação com o que tinha nela:
296
00:14:33,639 --> 00:14:38,644
Em 1995, o senador James Exon
levou uma pasta azul ao Senado.
297
00:14:39,178 --> 00:14:40,446
Estava cheia de...
298
00:14:40,880 --> 00:14:44,717
Os tipos mais pesados e perversos
de pornografia.
299
00:14:45,484 --> 00:14:47,286
As imagens vieram da internet.
300
00:14:47,987 --> 00:14:51,023
Exon queria que o Senado entendesse
o que as crianças poderiam ver.
301
00:14:51,457 --> 00:14:52,858
{\an8}Venham na minha mesa
302
00:14:53,659 --> 00:14:57,763
{\an8}e vejam esse material nojento.
303
00:14:58,564 --> 00:15:01,000
Certo, temos muito a dizer,
304
00:15:01,066 --> 00:15:03,302
desde a pasta com "cuidado"
em letras garrafais
305
00:15:03,369 --> 00:15:07,673
ao convite de ir até a mesa dele
para ver um "material nojento".
306
00:15:08,574 --> 00:15:12,244
Mas minha parte preferida
é a imagem de uma Playboy
307
00:15:12,311 --> 00:15:14,113
carregando um centímetro por vez.
308
00:15:14,446 --> 00:15:19,118
É uma descrição muito precisa de como
era a pornografia online nos anos 90.
309
00:15:19,418 --> 00:15:21,587
Como eu sei?
Por nenhum motivo em especial.
310
00:15:22,955 --> 00:15:26,992
Na época, tiveram batalhas
no Congresso e no Judiciário
311
00:15:27,059 --> 00:15:29,662
sobre como a lei trataria sites
trazendo conteúdos
312
00:15:29,728 --> 00:15:31,830
como pornografia
e comentários difamatórios.
313
00:15:31,897 --> 00:15:36,101
Brevemente se perguntaram
se um site que modera conteúdos
314
00:15:36,168 --> 00:15:38,437
era uma editora, e portanto, responsável
315
00:15:38,504 --> 00:15:39,805
por tudo que não removessem.
316
00:15:39,872 --> 00:15:43,542
Isso levou à aprovação da Seção 230,
317
00:15:43,609 --> 00:15:45,778
muitas vezes descrita
como as 26 palavras
318
00:15:45,844 --> 00:15:47,379
que criaram a internet.
319
00:15:47,446 --> 00:15:51,483
Diz que empresas não são responsáveis
pelo que usuários publicam,
320
00:15:51,550 --> 00:15:56,021
porque diferente de algo impresso,
sites lidam com tanto material
321
00:15:56,088 --> 00:15:57,690
que é impossível controlar tudo.
322
00:15:57,756 --> 00:15:59,124
Ela tem algumas exceções,
323
00:15:59,191 --> 00:16:02,227
ela não permite que sites
publiquem conteúdos ilegais,
324
00:16:02,294 --> 00:16:04,463
como matérias sobre abuso infantil
e terrorismo,
325
00:16:04,530 --> 00:16:06,999
mas, em geral, permitem
que moderem sem medo,
326
00:16:07,066 --> 00:16:08,534
o que é bom.
327
00:16:08,600 --> 00:16:12,871
Porque, como dizem os especialistas,
moderação de conteúdo é a chave
328
00:16:12,938 --> 00:16:14,640
para que a internet seja tolerável:
329
00:16:15,140 --> 00:16:20,279
{\an8}Não se pode ter uma plataforma
utilizável sem nenhuma moderação.
330
00:16:20,346 --> 00:16:24,750
{\an8}Senão, todas as plataformas seriam
só pornô e remédios para emagrecer.
331
00:16:25,317 --> 00:16:29,855
Sim, isso seria um problema,
ainda mais em site como o LinkedIn.
332
00:16:29,922 --> 00:16:33,559
Mas, dizendo a verdade,
pode ser que lá já seja isso,
333
00:16:33,625 --> 00:16:34,927
eu não entro lá há anos,
334
00:16:34,994 --> 00:16:38,330
já que trabalho aqui desde 2014
e, sinceramente, não quero saber
335
00:16:38,397 --> 00:16:40,499
sobre como os outros ascendem
e trabalham duro.
336
00:16:40,899 --> 00:16:44,803
A questão é que se você quer
que as pessoas usem seu site
337
00:16:44,870 --> 00:16:48,507
e principalmente que as empresas
paguem por propagandas nele,
338
00:16:48,574 --> 00:16:51,343
você tem que decidir o que remover.
339
00:16:51,410 --> 00:16:55,014
E a forma de decidir isso
sempre vai gerar conflitos.
340
00:16:55,514 --> 00:16:58,283
Ao longo do ano, o Facebook
aprendeu isso do jeito difícil.
341
00:16:58,350 --> 00:17:01,920
No começo, a abordagem era tão ingênua
que era triste,
342
00:17:01,987 --> 00:17:03,789
como um ex-funcionário explicou:
343
00:17:05,124 --> 00:17:08,994
Tivemos que ditar regras simples:
Decência básica, nada de nudez,
344
00:17:09,061 --> 00:17:10,696
nada de discursos violentos ou de ódio.
345
00:17:11,063 --> 00:17:15,200
{\an8}E depois disso, ficamos relutantes
346
00:17:16,068 --> 00:17:18,871
{\an8}em impor os nossos valores
347
00:17:19,571 --> 00:17:22,708
sobre uma comunidade mundial
que estava em crescimento.
348
00:17:23,175 --> 00:17:25,844
Não houve preocupação
de que poderia virar
349
00:17:25,911 --> 00:17:29,014
um lugar de confusão total?
350
00:17:29,782 --> 00:17:34,686
Que as mentiras teriam o mesmo peso
das verdades?
351
00:17:35,220 --> 00:17:37,790
Que se tornaria um lugar onde a verdade
352
00:17:37,856 --> 00:17:40,592
fica totalmente ofuscada?
353
00:17:41,193 --> 00:17:42,294
Não.
354
00:17:42,361 --> 00:17:45,597
Nós confiamos no que achamos
que seria senso comum das pessoas
355
00:17:45,664 --> 00:17:49,034
e decência comum para gerenciar o site.
356
00:17:49,802 --> 00:17:51,170
Foi mesmo?
357
00:17:51,904 --> 00:17:55,274
Eu diria que isso é adorável,
mas eu teria vergonha
358
00:17:55,340 --> 00:17:58,477
de ir na televisão e confirmar
que todos que trabalhavam no Facebook
359
00:17:58,544 --> 00:18:02,481
tinham um nível de ingenuidade
que podemos chamar de completamente
360
00:18:02,548 --> 00:18:03,816
Amelia Bedelia.
361
00:18:04,850 --> 00:18:06,985
Obviamente, o otimismo inicial
não durou.
362
00:18:07,052 --> 00:18:09,888
Com o tempo, o Facebook passou
a implementar mais regras
363
00:18:09,955 --> 00:18:12,624
e empregar cada vez mais gente
para reforçá-las.
364
00:18:12,691 --> 00:18:14,793
E esse podia ser um trabalho terrível.
365
00:18:15,160 --> 00:18:17,696
Vamos ver um moderador
dizendo como era analisar
366
00:18:17,763 --> 00:18:19,665
milhares de imagens perturbadoras
por dia,
367
00:18:19,731 --> 00:18:23,102
com, eu aviso logo,
um disfarce que causa distração:
368
00:18:23,669 --> 00:18:26,772
{\an8}Acho que seria mais fácil
cuidar das imagens
369
00:18:26,839 --> 00:18:29,708
{\an8}se não tivéssemos que pensar nelas
com tanta profundidade.
370
00:18:30,776 --> 00:18:35,380
{\an8}Eu trabalhava à noite.
Das 18h até às 2h.
371
00:18:35,681 --> 00:18:36,915
{\an8}Duas da madrugada.
372
00:18:36,982 --> 00:18:39,685
{\an8}Mas aí você acorda
três ou quatro horas depois,
373
00:18:39,751 --> 00:18:43,755
{\an8}de repente você senta na cama e lembra
de uma decisão que tomou,
374
00:18:43,822 --> 00:18:45,390
{\an8}e percebe que cometeu um erro.
375
00:18:45,657 --> 00:18:47,025
{\an8}Como: Não vi um mamilo.
376
00:18:47,826 --> 00:18:50,395
{\an8}Você lembra de uma imagem que viu,
e de repente percebe
377
00:18:50,462 --> 00:18:55,134
{\an8}que tinha uma mulher nua ao lado,
ou uma bandeira do Estado Islâmico,
378
00:18:55,200 --> 00:18:58,070
{\an8}que deveria ter sido apagada
pela política antiterrorismo.
379
00:18:58,470 --> 00:19:02,708
Ignorando que isso vem de um adulto
com cabeça de bebê, voz do Darth Vader
380
00:19:02,774 --> 00:19:04,076
e roupas de férias,
381
00:19:04,143 --> 00:19:07,980
é um olhar deprimente
do que o Facebook enfrentava.
382
00:19:08,046 --> 00:19:11,984
E tem uma grande distância
entre confiar na bondade humana
383
00:19:12,050 --> 00:19:14,620
e contratar gente para consumir
pornografia terrorista.
384
00:19:14,887 --> 00:19:17,789
E algumas decisões para bloquear
conteúdo foram fáceis,
385
00:19:17,856 --> 00:19:19,258
mas outras foram mais difíceis.
386
00:19:19,324 --> 00:19:21,760
Pensem: Se banirmos a nudez,
387
00:19:21,827 --> 00:19:26,865
e quanto a estátuas? E amamentação?
E uma estátua amamentando?
388
00:19:26,932 --> 00:19:29,868
E antes de responderem,
e se eu estivesse falando dessa?
389
00:19:29,935 --> 00:19:32,804
Viram? Fica difícil bem rápido.
390
00:19:33,272 --> 00:19:36,141
A empresa também precisou desenvolver
políticas sobre discurso de ódio
391
00:19:36,208 --> 00:19:39,244
e desinformação,
onde os limites são mais difíceis.
392
00:19:39,311 --> 00:19:41,213
Por exemplo, as regras proibiam
393
00:19:41,280 --> 00:19:44,483
atacar pessoas por serem
de "grupos protegidos",
394
00:19:44,550 --> 00:19:47,953
por raça, sexo, gênero e credo,
395
00:19:48,020 --> 00:19:50,789
mas permitia maior liberdade
396
00:19:50,856 --> 00:19:53,625
quando se referiam a subgrupos
nessas categorias.
397
00:19:53,692 --> 00:19:57,896
E é bizarro ver os moderadores
tentando colocar isso em prática,
398
00:19:57,963 --> 00:19:59,741
como mostra esse vídeo
de uma câmera escondida
399
00:19:59,765 --> 00:20:01,800
em um centro de moderação na Irlanda:
400
00:20:02,467 --> 00:20:06,371
{\an8}Essa denúncia aí,
"voltem para a porra do seu país"
401
00:20:06,438 --> 00:20:09,241
{\an8}e diz "muçulmanos"... e imigrantes.
402
00:20:09,508 --> 00:20:10,742
{\an8}"Imigrantes muçulmanos".
403
00:20:10,809 --> 00:20:13,512
{\an8}Se fosse só "muçulmanos"
você teria que agir.
404
00:20:13,779 --> 00:20:15,647
{\an8}Mas não diz, então ignore.
405
00:20:17,950 --> 00:20:20,652
{\an8}"Ele cuida de imigrantes
muçulmanos fedorentos."
406
00:20:21,320 --> 00:20:22,354
{\an8}Acho que está bem.
407
00:20:22,421 --> 00:20:23,555
{\an8}Está bem?
408
00:20:24,523 --> 00:20:28,460
{\an8}Sim, porque chamar de "fedorento"
pode ser inferioridade física.
409
00:20:28,827 --> 00:20:29,861
{\an8}Certo.
410
00:20:29,928 --> 00:20:32,864
{\an8}Se fosse "escória muçulmana imigrante",
por exemplo, nós apagaríamos.
411
00:20:33,532 --> 00:20:35,968
É, o limite é estranho.
412
00:20:36,034 --> 00:20:39,538
Mas qualquer limite pode ser estranho.
413
00:20:40,172 --> 00:20:42,274
Ver em que momento um discurso
passa a ser de ódio
414
00:20:42,341 --> 00:20:45,711
é como dizer qual pesadelo
nas capas de Animorphs
415
00:20:45,777 --> 00:20:47,813
você não atropelaria com seu carro.
416
00:20:47,879 --> 00:20:49,948
Esses monstros, é claro, na hora.
417
00:20:50,015 --> 00:20:53,085
Eu atropelo com meu Subaru
a 100 por hora e não sinto nada.
418
00:20:53,151 --> 00:20:55,887
Do outro lado, esperem aí,
é uma criança normal.
419
00:20:56,355 --> 00:20:58,156
Devagar, não quero ser preso.
420
00:20:58,223 --> 00:21:00,659
Mas o meio é duvidoso, não é?
421
00:21:01,226 --> 00:21:02,828
Essa é a dúvida.
422
00:21:03,595 --> 00:21:05,931
E é a mesma coisa com checagem de fatos.
423
00:21:05,998 --> 00:21:08,934
Mentiras óbvias são uma coisa,
mas existem várias observações
424
00:21:09,001 --> 00:21:11,770
que trazem fatos,
mas ainda podem desinformar.
425
00:21:11,837 --> 00:21:14,373
Em um momento o Facebook
pensou muito nisso.
426
00:21:14,439 --> 00:21:18,110
Fizeram até esse vídeo em 2018
com vários funcionários
427
00:21:18,176 --> 00:21:20,445
debatendo as nuances da moderação.
428
00:21:20,512 --> 00:21:23,382
Um até fez um diagrama
do problema que enfrentava:
429
00:21:24,116 --> 00:21:27,052
{\an8}Imaginem que no eixo X
você tem a quantidade de verdade
430
00:21:27,119 --> 00:21:28,287
{\an8}de um certo conteúdo.
431
00:21:28,353 --> 00:21:31,690
{\an8}No eixo Y você tem a intenção
de desinformar.
432
00:21:31,757 --> 00:21:34,860
Esse gráfico pode se dividir
em quatro quadrantes.
433
00:21:35,160 --> 00:21:36,437
No inferior esquerdo, você tem coisas
434
00:21:36,461 --> 00:21:39,931
sem verdade mas com pouca intenção
de desinformar
435
00:21:39,998 --> 00:21:42,034
Isso se chama estar errado na internet,
436
00:21:42,100 --> 00:21:43,302
e isso acontece.
437
00:21:43,368 --> 00:21:47,639
No lado direito, tem verdade
mas ninguém quis desinformar.
438
00:21:47,973 --> 00:21:49,708
Isso é estar certo.
439
00:21:49,775 --> 00:21:51,176
Com certeza vai acontecer um dia.
440
00:21:51,243 --> 00:21:54,913
Aqui em cima temos muita verdade,
muita intenção de desinformar.
441
00:21:54,980 --> 00:21:56,715
É o caso da propaganda.
442
00:21:56,982 --> 00:22:00,085
É como escolher estatísticas
que eu quero mostrar.
443
00:22:00,519 --> 00:22:02,354
Aqui nós temos que tomar cuidado.
444
00:22:02,421 --> 00:22:04,956
Por causa do nosso compromisso
com liberdade de expressão,
445
00:22:05,023 --> 00:22:07,993
tudo que fazemos aqui
tem que ter muito, muito cuidado.
446
00:22:08,060 --> 00:22:09,561
Depois passamos para esse quadrante.
447
00:22:09,628 --> 00:22:11,663
É um quadrante muito perigoso, certo?
448
00:22:11,730 --> 00:22:14,299
Pouca quantidade de verdade,
muita intenção de desinformar.
449
00:22:14,366 --> 00:22:17,636
São coisas projetadas especialmente
para viralizar.
450
00:22:17,703 --> 00:22:19,271
São as grandes mentiras.
451
00:22:19,338 --> 00:22:22,240
Um exemplo é o Pizzagate.
São simplesmente falsos.
452
00:22:22,307 --> 00:22:25,477
Temos que acertar aqui para reconquistar
a confiança das pessoas.
453
00:22:25,844 --> 00:22:29,047
É incrível que tudo isso
começou quando um jovem
454
00:22:29,114 --> 00:22:32,217
tinha um sonho de fazer um ranking
das colegas por desejo sexual.
455
00:22:32,284 --> 00:22:35,520
E 15 anos depois uma empresa
precisa impedir as pessoas
456
00:22:35,587 --> 00:22:38,423
de acusar pizzarias de tráfico humano.
457
00:22:39,024 --> 00:22:43,462
Uma borboleta se masturba no quarto
e vira um furacão para o resto de nós.
458
00:22:44,162 --> 00:22:47,833
E dando crédito a esse homem,
ele quer mesmo resolver o problema.
459
00:22:47,899 --> 00:22:51,203
Mas a empresa não fazia isso
por ter um coração bom.
460
00:22:51,503 --> 00:22:54,048
O Facebook estava sendo muito criticado
por permitir a proliferação
461
00:22:54,072 --> 00:22:55,974
de notícias falsas e discurso de ódio
462
00:22:56,041 --> 00:22:57,976
não só nos EUA, mas também no exterior.
463
00:22:58,043 --> 00:23:02,114
Já falamos de como a desinformação
no Facebook impulsionou o ódio étnico.
464
00:23:02,180 --> 00:23:03,448
Levando a manchetes como:
465
00:23:03,515 --> 00:23:06,952
"Facebook admite que foi usado
para incitar violência em Myanmar."
466
00:23:07,018 --> 00:23:10,622
Foi nessa época que Zuckerberg
se desculpou com o Congresso.
467
00:23:10,689 --> 00:23:14,726
A empresa deu várias opções
para lidar com a desinformação.
468
00:23:14,793 --> 00:23:18,697
Trabalharam com verificadores externos,
colocaram notas nas postagens,
469
00:23:18,764 --> 00:23:21,800
também apagava algumas postagens
e reduzia o alcance de outras.
470
00:23:21,867 --> 00:23:25,871
Com isso, eles se viam constantemente
tomando decisões bem difíceis
471
00:23:25,937 --> 00:23:28,206
por pressão de gente muito poderosa.
472
00:23:28,273 --> 00:23:32,744
Aqui temos um caso explicado
por uma ex-funcionária:
473
00:23:33,378 --> 00:23:35,881
Queremos dar a esse presidente
474
00:23:35,947 --> 00:23:40,018
a possibilidade de fazer
uma coisa histórica.
475
00:23:40,385 --> 00:23:43,989
Esse é um vídeo da ex-presidente
da Câmara, Pelosi,
476
00:23:44,055 --> 00:23:46,391
publicado no Facebook em 2019.
477
00:23:46,725 --> 00:23:50,996
Diminuíram a velocidade para parecer
que ela falava devagar.
478
00:23:52,063 --> 00:23:53,198
{\an8}Ele foi apagado?
479
00:23:53,498 --> 00:23:55,000
{\an8}- Não.
- Por quê?
480
00:23:55,066 --> 00:23:58,870
{\an8}Porque não violava
as políticas da plataforma.
481
00:23:59,337 --> 00:24:03,175
Ela pressionou a empresa
para que apagassem?
482
00:24:03,608 --> 00:24:06,011
Ela não ficou feliz.
483
00:24:06,077 --> 00:24:07,212
Isso é um sim?
484
00:24:07,279 --> 00:24:11,950
Sim, e danificou a relação
que a empresa tinha com ela.
485
00:24:12,484 --> 00:24:16,621
Certo, deixando de lado que não sei
deixar um vídeo mais lento
486
00:24:16,688 --> 00:24:18,423
para envergonhar uma pessoa
487
00:24:18,490 --> 00:24:20,802
que diz muitas coisas vergonhosas
em uma velocidade normal.
488
00:24:20,826 --> 00:24:23,695
Mas eu meio que concordo com o Facebook.
489
00:24:23,762 --> 00:24:27,599
"Isso irrita a Nancy Pelosi?"
não é uma métrica válida
490
00:24:27,666 --> 00:24:29,468
para apagar esse vídeo.
491
00:24:29,534 --> 00:24:33,205
E olhem, eu não digo que o Facebook
sempre toma decisões certas.
492
00:24:33,271 --> 00:24:36,408
Como eu falei, nenhuma empresa
deste tamanho conseguiria.
493
00:24:37,042 --> 00:24:40,445
Mas ele desenvolveu sistemas
que ele diz que funcionam bem.
494
00:24:40,512 --> 00:24:42,547
Eles já se gabaram
que quando as pessoas viam
495
00:24:42,614 --> 00:24:43,814
que os verificadores indicavam
496
00:24:43,849 --> 00:24:45,726
que um conteúdo era falso
ou parcialmente falso,
497
00:24:45,750 --> 00:24:48,353
eles não clicavam
em quase 95% das vezes.
498
00:24:48,420 --> 00:24:52,691
Em relatório recente, indicaram
que em ações contra discurso de ódio,
499
00:24:52,757 --> 00:24:56,561
o sistema funcionou em 95,3% das vezes,
500
00:24:56,628 --> 00:24:59,331
ou seja, os usuários precisariam
informar pouca coisa.
501
00:24:59,397 --> 00:25:02,601
Agora, claro, algumas ferramentas
estão sendo diluídas,
502
00:25:02,667 --> 00:25:05,237
e outras estão sendo
totalmente desligadas.
503
00:25:05,303 --> 00:25:09,941
E chegamos à pergunta: Por quê?
Por que estão fazendo isso?
504
00:25:10,008 --> 00:25:14,746
Algumas coisas aconteceram em cinco anos
e nos trouxeram até aqui.
505
00:25:14,813 --> 00:25:18,917
Uma, conservadores dizendo que moderação
normal de conteúdo
506
00:25:18,984 --> 00:25:20,485
é uma perseguição política:
507
00:25:20,886 --> 00:25:23,221
{\an8}As empresas de tecnologia
estão atrás dos conservadores.
508
00:25:23,288 --> 00:25:25,657
{\an8}Não é uma suspeita ou palpite,
é um fato.
509
00:25:25,724 --> 00:25:29,594
{\an8}Vemos as empresas de tecnologia
nos censurando.
510
00:25:29,661 --> 00:25:32,264
{\an8}O povo dos EUA está sendo censurado.
511
00:25:32,330 --> 00:25:34,199
{\an8}Estão censurando os conservadores.
512
00:25:34,266 --> 00:25:38,203
{\an8}A informação que chega ao povo
513
00:25:38,270 --> 00:25:39,571
{\an8}está sendo censurada.
514
00:25:39,638 --> 00:25:40,939
{\an8}É simples assim.
515
00:25:41,239 --> 00:25:44,876
Obviamente é tudo mentira,
mas sendo justo, Devin Nunes
516
00:25:44,943 --> 00:25:46,478
entende bem de censura.
517
00:25:46,545 --> 00:25:49,180
Ele já abriu um processo de $250 milhões
518
00:25:49,247 --> 00:25:51,683
contra contas do Twitter
que tiravam sarro dele.
519
00:25:51,750 --> 00:25:54,686
Incluindo uma que fingia ser
a vaca de Nunes.
520
00:25:55,120 --> 00:25:58,990
Ele processou uma vaca falsa do Twitter
porque foi malvada com ele.
521
00:25:59,057 --> 00:26:03,428
E a ACLU publicou essa declaração real,
dizendo: "A vaca de Devin Nunes
522
00:26:03,795 --> 00:26:07,232
tem o direito pela primeira emenda
a chamar o deputado Nunes
523
00:26:07,299 --> 00:26:08,633
de 'merda de vaca traidora'".
524
00:26:09,000 --> 00:26:13,071
Nós vivemos mesmo
na linha temporal mais imbecil.
525
00:26:14,172 --> 00:26:18,376
A questão é que conservadores
se queixam de censura há anos,
526
00:26:18,443 --> 00:26:21,146
mas as provas deles são muito fracas.
527
00:26:21,546 --> 00:26:26,151
Se as postagens deles são marcadas
mais vezes, é porque conservadores
528
00:26:26,217 --> 00:26:31,323
tendem a espalhar mais desinformação
política, segundo vários estudos.
529
00:26:31,389 --> 00:26:36,061
Mas mesmo se você ache
que as plataformas queiram censurá-los,
530
00:26:36,127 --> 00:26:38,463
estão fazendo um péssimo trabalho.
531
00:26:38,530 --> 00:26:40,966
Vários dos perfis mais vistos
no Facebook são de direita,
532
00:26:41,032 --> 00:26:45,203
e temos três vezes mais influenciadores
de notícias abertamente conservadores
533
00:26:45,270 --> 00:26:47,205
do que liberais no Facebook.
534
00:26:47,272 --> 00:26:50,508
Ainda assim, os conservadores
atacaram com toda a força
535
00:26:50,575 --> 00:26:55,013
a ideia de moderação de conteúdo,
e sempre citam um exemplo em particular,
536
00:26:55,080 --> 00:26:56,514
explicado aqui por Jeanine Pirro:
537
00:26:57,215 --> 00:27:00,318
{\an8}Quem suprimiu a liberdade de expressão
nas eleições de 2020?
538
00:27:00,385 --> 00:27:03,488
{\an8}O Facebook, por não permitir
que as pessoas falassem
539
00:27:03,555 --> 00:27:06,625
{\an8}nem que a imprensa falasse
sobre o computador de Hunter Biden.
540
00:27:07,125 --> 00:27:10,028
É, a porra do computador
de Hunter Biden.
541
00:27:11,229 --> 00:27:13,207
É uma notícia que as empresas
de tecnologia censuraram,
542
00:27:13,231 --> 00:27:15,400
por isso você nunca ouviu falar.
543
00:27:15,900 --> 00:27:19,504
E temo que vale a pena lembrar
dos detalhes da história,
544
00:27:19,571 --> 00:27:23,041
as pessoas em geral podem pensar
sobre uma enganação russa,
545
00:27:23,108 --> 00:27:25,310
ou provas contundentes
da corrupção de Biden,
546
00:27:25,377 --> 00:27:27,312
mas a verdade é que não era isso.
547
00:27:27,712 --> 00:27:31,349
Em resumo, em 2020,
enquanto Trump era presidente,
548
00:27:31,416 --> 00:27:33,418
as redes sociais foram avisadas pelo FBI
549
00:27:33,485 --> 00:27:35,954
sobre possíveis operações
de hackers antes das eleições.
550
00:27:36,021 --> 00:27:38,221
Depois, em outubro, o New York Post
publicou uma notícia
551
00:27:38,256 --> 00:27:41,092
baseada em arquivos de um computador
supostamente de Hunter Biden,
552
00:27:41,159 --> 00:27:43,962
que haviam recebido de Steve Bannon
e Rudy Giuliani.
553
00:27:44,262 --> 00:27:46,431
O Facebook e o Twitter foram cautelosos.
554
00:27:46,498 --> 00:27:49,567
Twitter por um momento não permitiu
a postagem de vazamentos da notícia,
555
00:27:49,634 --> 00:27:51,979
e o Facebook permitiu que a história
fosse vista e compartilhada,
556
00:27:52,003 --> 00:27:56,174
mas limitou o alcance do artigo,
e depois removeu o limite.
557
00:27:56,441 --> 00:28:01,146
No fim, se soube que os arquivos
do computador eram legítimos,
558
00:28:01,212 --> 00:28:03,048
mas também nada indicava
559
00:28:03,114 --> 00:28:05,984
uma conduta ilegal ou antiética
de Joe Biden.
560
00:28:06,051 --> 00:28:10,522
Então, limitar a história do computador
foi um erro dessas empresas?
561
00:28:10,588 --> 00:28:12,257
Vendo em retrospecto, sim.
562
00:28:12,891 --> 00:28:15,527
A notícia era reveladora ou importante?
563
00:28:15,927 --> 00:28:16,995
Não.
564
00:28:17,295 --> 00:28:19,507
As ações do Facebook impediram
que as pessoas soubessem da notícia
565
00:28:19,531 --> 00:28:20,799
antes das eleições?
566
00:28:21,099 --> 00:28:22,333
De novo, não.
567
00:28:22,400 --> 00:28:24,936
Mesmo quando o Facebook
limitou o compartilhamento,
568
00:28:25,003 --> 00:28:27,872
o artigo teve 54 milhões
de visualizações no site.
569
00:28:28,239 --> 00:28:31,776
Se eles tentaram limitar o alcance,
eles conseguiram limitar quem viu
570
00:28:31,843 --> 00:28:35,413
ao mesmo número de pessoas que viram
a porra do final de Friends.
571
00:28:36,614 --> 00:28:40,652
Mas essa decisão levou a direita
a gritar muito com Mark Zuckerberg.
572
00:28:40,719 --> 00:28:44,522
E, na mesma época, a Casa Branca
de Biden também gritava com ele.
573
00:28:44,589 --> 00:28:47,125
Porque conforme as vacinas
contra COVID eram lançadas,
574
00:28:47,192 --> 00:28:49,861
muitas informações falsas
circulavam no Facebook.
575
00:28:49,928 --> 00:28:52,097
Biden disse em um momento,
falando sobre o Facebook,
576
00:28:52,163 --> 00:28:53,631
que estavam matando pessoas.
577
00:28:53,698 --> 00:28:56,601
E ele se retratou rapidamente,
mas segundo Zuckerberg,
578
00:28:56,668 --> 00:29:00,305
a pressão da Casa Branca para remover
qualquer crítica às vacinas na época
579
00:29:00,371 --> 00:29:01,439
era gigantesca:
580
00:29:01,773 --> 00:29:05,610
Basicamente, as pessoas do governo Biden
581
00:29:05,677 --> 00:29:09,647
ligavam para nossa equipe,
gritavam e xingavam.
582
00:29:09,714 --> 00:29:12,984
Biden deu uma declaração
em dado momento.
583
00:29:13,051 --> 00:29:15,353
Não lembro se era
uma coletiva de imprensa.
584
00:29:15,420 --> 00:29:17,388
Mas ele disse: "Estão matando pessoas".
585
00:29:17,455 --> 00:29:18,923
E...
586
00:29:19,758 --> 00:29:20,959
E...
587
00:29:21,993 --> 00:29:26,131
Não sei, depois muitas agências
e instituições do governo
588
00:29:26,197 --> 00:29:29,334
começaram a investigar a nossa empresa.
589
00:29:29,400 --> 00:29:30,902
Foi brutal. Foi brutal.
590
00:29:31,636 --> 00:29:34,873
Ele está claramente dizendo
o que Joe Rogan e o público dele querem.
591
00:29:34,939 --> 00:29:38,810
Apesar de que muitos devem estar
distraídos pela roupa dele.
592
00:29:38,877 --> 00:29:40,845
Alguns comentários no vídeo dizem:
593
00:29:40,912 --> 00:29:43,081
"O mano se veste
igual a um policial disfarçado",
594
00:29:43,882 --> 00:29:45,450
"achei que era Lil Dicky",
595
00:29:45,517 --> 00:29:48,253
e "por que tem um bilionário
de 40 anos vestido
596
00:29:48,319 --> 00:29:50,131
que nem o cara de 25 anos
que me vende cogumelos?"
597
00:29:50,155 --> 00:29:55,059
Mas vemos que ele insinua
que o governo lançou investigações
598
00:29:55,126 --> 00:29:57,929
para punir o Facebook por permitir
conteúdo anti-vacina.
599
00:29:57,996 --> 00:30:01,366
É verdade que o governo
investigou muito o Facebook
600
00:30:01,432 --> 00:30:02,600
nos últimos anos.
601
00:30:02,667 --> 00:30:06,171
Mas nenhuma investigação
bate com o relato de Zuckerberg.
602
00:30:06,237 --> 00:30:10,008
Uma, o processo antitruste,
começou no primeiro mandato de Trump.
603
00:30:10,341 --> 00:30:13,344
Outras, como a investigação
de sistemas de pagamento,
604
00:30:13,411 --> 00:30:15,013
envolvem várias outras empresas.
605
00:30:15,079 --> 00:30:17,482
E muito do escrutínio recente
que a empresa passou
606
00:30:17,549 --> 00:30:20,819
se deve a um informante
que lançou vários documentos
607
00:30:20,885 --> 00:30:22,487
conhecidos como "Arquivos Facebook".
608
00:30:22,554 --> 00:30:25,924
Quanto à alegação de que o governo
gritava e xingava contra o Facebook,
609
00:30:25,990 --> 00:30:27,625
eles podem fazer isso.
610
00:30:28,159 --> 00:30:30,862
Quando falamos com agências do governo
para checar um fato,
611
00:30:30,929 --> 00:30:32,497
eles podem nos mandar à merda.
612
00:30:33,164 --> 00:30:35,767
Porque xingamentos
não violam seus direitos.
613
00:30:35,834 --> 00:30:39,370
Para saber mais, leiam
A Constituição para completos imbecis.
614
00:30:40,205 --> 00:30:43,808
O que eles não podem fazer
é obrigar você a fazer alguma coisa.
615
00:30:44,175 --> 00:30:48,479
E na entrevista, Zuckerberg descreve
a resposta às demandas como:
616
00:30:48,546 --> 00:30:51,349
"Eu falava: Não vamos fazer isso."
617
00:30:51,983 --> 00:30:56,120
Exatamente! Você disse que não.
Como é o seu direito.
618
00:30:56,187 --> 00:30:57,856
E não acreditem só em mim.
619
00:30:58,156 --> 00:31:00,859
Esse tipo de reclamação
chegou até os tribunais,
620
00:31:00,925 --> 00:31:03,561
quando dois procuradores Republicanos
tentaram processar o governo
621
00:31:03,628 --> 00:31:06,197
por pressionar plataformas
como o Facebook
622
00:31:06,264 --> 00:31:08,275
para censurar discursos,
eles perderam em uma decisão
623
00:31:08,299 --> 00:31:10,869
da Suprema Corte
de seis votos contra três
624
00:31:10,935 --> 00:31:12,604
redigida por Amy Coney Barrett.
625
00:31:13,004 --> 00:31:15,139
Ela disse que os reclamantes
não conseguiam demonstrar
626
00:31:15,206 --> 00:31:17,876
que o conteúdo foi restringido
por pressão do governo.
627
00:31:18,276 --> 00:31:22,146
E olhem, eu entendo que Zuckerberg
fique magoado
628
00:31:22,213 --> 00:31:24,191
porque o presidente falou
que a empresa dele mata pessoas.
629
00:31:24,215 --> 00:31:25,917
E eu entendo que ele se canse
630
00:31:25,984 --> 00:31:27,952
de ouvir gritos dos Republicanos
por fazer muito
631
00:31:28,019 --> 00:31:29,988
e dos Democratas por fazer pouco.
632
00:31:30,054 --> 00:31:32,790
De certa forma, eu até entendo
que uma empresa
633
00:31:32,857 --> 00:31:34,826
queira estar bem
com quem estiver no poder.
634
00:31:34,893 --> 00:31:38,630
Mas tem um fator a mais
que parece relevante nesse caso
635
00:31:38,696 --> 00:31:40,698
e é importante de mencionar:
636
00:31:41,432 --> 00:31:43,534
{\an8}É uma evolução política para a Meta.
637
00:31:43,601 --> 00:31:46,504
{\an8}Há quatro anos o Facebook suspendeu
a conta de Trump
638
00:31:46,571 --> 00:31:48,840
{\an8}depois do 6 de janeiro,
e apenas alguns meses
639
00:31:48,907 --> 00:31:52,710
{\an8}depois do presidente acusar Zuckerberg
de conspirar contra ele em 2020,
640
00:31:52,777 --> 00:31:55,713
{\an8}pedindo prisão perpétua
caso Zuckerberg repetisse isso.
641
00:31:56,014 --> 00:31:59,951
{\an8}Mas após a vitória de Trump,
Zuckerberg viajou para Mar-a-Lago,
642
00:32:00,084 --> 00:32:03,288
{\an8}a empresa dele doou $1 milhão
para a inauguração de Trump,
643
00:32:03,354 --> 00:32:06,624
{\an8}e agora um aliado próximo de Trump,
o presidente do UFC, Dana White,
644
00:32:06,691 --> 00:32:08,092
{\an8}se junta ao conselho da Meta.
645
00:32:08,159 --> 00:32:11,129
{\an8}Meta, Facebook,
acho que eles avançaram muito.
646
00:32:11,195 --> 00:32:14,432
{\an8}Acha que é uma resposta às ameaças
que você fez contra ele no passado?
647
00:32:14,499 --> 00:32:15,533
{\an8}Provavelmente.
648
00:32:15,600 --> 00:32:16,601
É!
649
00:32:18,269 --> 00:32:19,470
É, provavelmente.
650
00:32:20,672 --> 00:32:23,141
Trump ameaçou Zuckerberg
com prisão perpétua.
651
00:32:23,207 --> 00:32:25,920
Depois, Zuckerberg mudou de ideia,
deu dinheiro, contratou o amigo dele
652
00:32:25,944 --> 00:32:27,946
e mudou a direção da empresa.
653
00:32:28,012 --> 00:32:30,882
Não precisa ser um gênio
para tirar conclusões.
654
00:32:31,182 --> 00:32:33,284
Na verdade, não precisamos de um.
655
00:32:34,719 --> 00:32:36,921
E não acaba aí.
656
00:32:37,455 --> 00:32:41,759
A Meta também pagou $25 milhões
para acabar com um processo fajuto
657
00:32:41,826 --> 00:32:43,828
que Trump abriu
por ser banido do Facebook.
658
00:32:43,895 --> 00:32:45,396
Muitos especialistas concordam
659
00:32:45,463 --> 00:32:47,465
que a empresa estava no seu direito.
660
00:32:47,532 --> 00:32:50,201
E a essa altura, Trump parece
estar fazendo exatamente
661
00:32:50,268 --> 00:32:53,838
o que Zuckerberg dizia
que o governo Biden fazia:
662
00:32:53,905 --> 00:32:57,608
Se aproveitando do poder do Estado
para pressionar redes sociais
663
00:32:57,675 --> 00:32:58,843
a fazerem o que ele quer.
664
00:32:58,910 --> 00:33:01,012
E Zuckerberg parece acatar.
665
00:33:01,646 --> 00:33:05,483
E ele vai dizer que essas mudanças
não são por pressão política,
666
00:33:05,550 --> 00:33:08,853
mas seja como for, o Facebook
parece estar em um caminho
667
00:33:08,920 --> 00:33:12,290
para virar um esgoto de ódio
e desinformação.
668
00:33:12,357 --> 00:33:15,460
E eu sei que já parece uma descrição
de como o Facebook é hoje,
669
00:33:15,526 --> 00:33:19,163
mas vamos ver o que acontece
quando eles param mesmo de tentar.
670
00:33:19,597 --> 00:33:21,099
E o que podemos fazer?
671
00:33:21,165 --> 00:33:23,368
Existem algumas ideias ruins por aí.
672
00:33:23,434 --> 00:33:25,412
Tanto Democratas quanto Republicanos
sugeriram recentemente
673
00:33:25,436 --> 00:33:27,872
emendas à Seção 230,
674
00:33:27,939 --> 00:33:31,142
para que empresas se responsabilizem
mais pelo que é postado.
675
00:33:31,209 --> 00:33:33,311
Mas ainda não vi nenhuma proposta
676
00:33:33,378 --> 00:33:36,514
que não possa ser usada facilmente
para censura política.
677
00:33:36,881 --> 00:33:40,451
Sem dúvidas as empresas que fazem
propaganda no Facebook têm opções.
678
00:33:40,518 --> 00:33:45,156
Eu diria que deveriam considerar
se querem as propagandas delas
679
00:33:45,223 --> 00:33:48,793
ao lado de frases de ódio
que o Facebook agora aceita.
680
00:33:48,860 --> 00:33:51,295
Disney, querem o Olaf
divulgando Frozen III
681
00:33:51,362 --> 00:33:52,463
do lado dessa merda?
682
00:33:52,530 --> 00:33:53,998
Não sei, talvez queiram.
683
00:33:54,599 --> 00:33:57,602
Mas os indivíduos
possuem menos alternativas.
684
00:33:57,668 --> 00:34:01,072
Poderiam apagar suas contas da Meta,
e não estariam sozinhos.
685
00:34:01,139 --> 00:34:02,940
Em janeiro, buscas no Google
686
00:34:03,007 --> 00:34:05,777
sobre como cancelar e apagar contas
no Facebook, Instagram e Threads
687
00:34:05,843 --> 00:34:08,012
aumentaram em mais de 5000%.
688
00:34:08,546 --> 00:34:13,251
E temos alternativas menos desesperadas
para acatar as ordens de Trump.
689
00:34:13,317 --> 00:34:18,222
Mas entendo que se sua família e amigos
estão no Facebook e Instagram,
690
00:34:18,289 --> 00:34:20,158
talvez você não esteja pronto para isso.
691
00:34:20,224 --> 00:34:23,127
Só lembrem-se de ter mais cuidado
692
00:34:23,194 --> 00:34:27,465
com tudo que lerem nesses sites.
693
00:34:28,099 --> 00:34:31,569
Mas tem uma pequena forma
de ferrar com a Meta:
694
00:34:31,636 --> 00:34:34,072
Que é se tornar
menos valioso para a empresa.
695
00:34:34,138 --> 00:34:38,709
Lembrem-se que a publicidade
compõe 98% da receita da Meta,
696
00:34:38,776 --> 00:34:43,214
e um componente chave é permitir
anúncios direcionados para você.
697
00:34:43,514 --> 00:34:46,651
A Meta faz isso porque rastreia
enormes quantidades de dados
698
00:34:46,717 --> 00:34:49,687
não só do que você faz nos sites deles,
mas em toda a internet.
699
00:34:49,754 --> 00:34:52,690
E por isso eles não querem que eu diga
700
00:34:52,757 --> 00:34:56,260
que vocês podem mudar as configurações
para o Facebook e Instagram
701
00:34:56,327 --> 00:34:58,729
não poderem mais lucrar tanto
com seus dados.
702
00:34:58,796 --> 00:35:01,799
Se quiserem um guia passo a passo
de como fazer isso,
703
00:35:01,866 --> 00:35:04,936
{\an8}visitem:
JohnOliverWantsYourRatErotica.com
704
00:35:06,137 --> 00:35:07,338
{\an8}Enquanto isso,
705
00:35:07,672 --> 00:35:12,210
se o Facebook continuar nos submetendo
a uma onda crescente
706
00:35:12,276 --> 00:35:17,248
de insultos, mentiras e desinformação,
poderiam ao menos dizer a verdade
707
00:35:17,882 --> 00:35:18,983
na mensagem deles:
708
00:35:22,320 --> 00:35:23,387
Aqui no Facebook,
709
00:35:23,454 --> 00:35:26,290
é hora de voltar às nossas raízes
de liberdade de expressão.
710
00:35:26,591 --> 00:35:28,960
Estamos completamente comprometidos
711
00:35:29,026 --> 00:35:31,562
em fazer o Facebook seguro e inclusivo
712
00:35:31,629 --> 00:35:32,763
para todo mundo.
713
00:35:32,830 --> 00:35:36,267
Ao longo dos anos, demos nosso melhor
para impedir o site
714
00:35:36,334 --> 00:35:39,904
de se tornar um vaso sanitário
cheio do pior da humanidade.
715
00:35:39,971 --> 00:35:43,441
Pareceu ser nossa responsabilidade,
porque criamos esse vaso sanitário.
716
00:35:44,175 --> 00:35:45,810
E ficamos muito ricos com ele.
717
00:35:45,877 --> 00:35:49,013
Mas moderar bilhões de usuários
é muito difícil.
718
00:35:49,447 --> 00:35:52,717
Dizem que, sem isso, a internet vira
só pornô e remédios para emagrecer.
719
00:35:53,017 --> 00:35:55,820
Meu Deus, quem dera
a gente só tivesse que cuidar disso.
720
00:35:56,087 --> 00:36:00,725
Tem pornô, remédio para emagrecer,
mentiras, insultos, ameaças de morte.
721
00:36:00,992 --> 00:36:02,727
Apostas, esquemas de criptomoedas.
722
00:36:02,793 --> 00:36:05,630
Aquelas fotos com um avô
estranhamente musculoso, dizendo:
723
00:36:05,696 --> 00:36:08,566
"Um truque para ficar muito sarado
aos 50 anos."
724
00:36:08,633 --> 00:36:09,700
É muita coisa.
725
00:36:09,767 --> 00:36:13,037
Por isso ficamos felizes em anunciar
nossa política para 2025
726
00:36:13,104 --> 00:36:14,438
sobre moderação de conteúdo:
727
00:36:14,872 --> 00:36:18,109
Foda-se.
728
00:36:18,176 --> 00:36:21,345
Sendo clara, todos os nossos problemas
anteriores continuem.
729
00:36:21,412 --> 00:36:24,448
Mas mudando estrategicamente
para o "foda-se",
730
00:36:24,515 --> 00:36:27,485
vemos que agora o problema é seu.
731
00:36:28,119 --> 00:36:30,988
É tão bom não ter que se preocupar
com as nuances, como
732
00:36:31,055 --> 00:36:34,792
"imigrantes de merda" ser aceitável,
mas "merda de imigrantes" não.
733
00:36:34,859 --> 00:36:36,060
Não, é o contrário.
734
00:36:36,127 --> 00:36:37,161
Tem certeza?
735
00:36:37,228 --> 00:36:40,431
Eu acho... espera, "merda"
é o adjetivo ou o objeto?
736
00:36:40,498 --> 00:36:43,334
E se falarem
"volte para seu país, imigrante"?
737
00:36:43,401 --> 00:36:44,702
Isso com certeza pode.
738
00:36:44,769 --> 00:36:45,803
Certo!
739
00:36:45,870 --> 00:36:47,905
Bem, não pode, mas...
740
00:36:48,206 --> 00:36:50,308
Sabe como seus parentes mais velhos
às vezes falam
741
00:36:50,374 --> 00:36:53,978
que receberam mensagem de um príncipe
da África que vai mandar milhões
742
00:36:54,045 --> 00:36:55,613
se derem o número dos documentos deles?
743
00:36:55,680 --> 00:36:57,615
Nós falávamos: "Não, vovó, é falso."
744
00:36:57,682 --> 00:37:02,520
Agora, faça isso com todos os parentes,
com todas as notícias, para sempre.
745
00:37:02,587 --> 00:37:03,621
Foda-se.
746
00:37:03,688 --> 00:37:06,290
Além disso, qual é a pior coisa
que poderia acontecer?
747
00:37:06,357 --> 00:37:09,360
Um genocídio?
Nós meio que contribuímos com um.
748
00:37:09,427 --> 00:37:10,928
Em Myanmar, lembra?
749
00:37:11,229 --> 00:37:13,364
Quais as chances de acontecer outro?
750
00:37:13,431 --> 00:37:14,599
Não fazemos ideia.
751
00:37:14,665 --> 00:37:16,000
Demitimos quem sabia.
752
00:37:16,067 --> 00:37:18,436
Eu fico feliz que meu bebê
vai crescer em um mundo
753
00:37:18,502 --> 00:37:20,671
onde ele possa insultar quem quiser.
754
00:37:21,239 --> 00:37:25,743
Ou ela quiser. Ou elu...
não, verdade. São só dois.
755
00:37:25,810 --> 00:37:28,479
O Facebook decidiu
que são só duas opções.
756
00:37:28,546 --> 00:37:29,580
Ouviu bem?
757
00:37:29,647 --> 00:37:31,782
Foda-se.
758
00:37:31,849 --> 00:37:32,883
Foda-se!
759
00:37:32,950 --> 00:37:33,985
Foda-se.
760
00:37:34,051 --> 00:37:37,555
E para quem diz que só estamos
obedecendo ao presidente Trump
761
00:37:37,622 --> 00:37:40,992
para evitar que sejamos presos,
vou dizer forçadamente
762
00:37:41,259 --> 00:37:42,560
que nada a ver...
763
00:37:42,627 --> 00:37:45,896
Donald Trump não nos dá ordens.
A menos que ele diga que sim.
764
00:37:46,530 --> 00:37:47,565
Ele disse?
765
00:37:47,632 --> 00:37:49,367
Saibam que, aconteça o que acontecer,
766
00:37:49,433 --> 00:37:52,270
nós no Facebook nos comprometemos
com nossos valores base.
767
00:37:52,536 --> 00:37:54,605
Os mesmos que sempre tivemos:
768
00:37:54,905 --> 00:37:56,007
Liberdade de expressão.
769
00:37:56,073 --> 00:37:57,441
Evitar responsabilidades.
770
00:37:57,742 --> 00:38:00,344
E fazer ranking de universitárias
por quão gostosas elas são.
771
00:38:01,145 --> 00:38:02,747
Não? Voltei muito?
772
00:38:02,813 --> 00:38:03,881
Esqueçam.
773
00:38:04,148 --> 00:38:08,619
Facebook, é como a praça da sua cidade,
cheia de espiões e robôs russos,
774
00:38:08,686 --> 00:38:11,098
e adolescentes se passando por adultos,
e adultos se passando por adolescentes
775
00:38:11,122 --> 00:38:13,124
que se juntam o tempo todo
para dizer o que querem,
776
00:38:13,190 --> 00:38:16,193
incluindo teorias da conspiração
e as boas ideias que os nazistas tinham.
777
00:38:16,260 --> 00:38:18,329
E agora você é o prefeito e a polícia
da sua praça.
778
00:38:18,396 --> 00:38:20,298
FODA-SE
779
00:38:21,098 --> 00:38:22,876
Este foi nosso programa.
Muito obrigado pela audiência.
780
00:38:22,900 --> 00:38:24,460
Nos vemos na semana que vem. Boa noite.
781
00:38:25,703 --> 00:38:31,142
{\an8}- Foda-se.
- Foda-se.
782
00:38:32,176 --> 00:38:33,344
{\an8}Foda-se.
783
00:38:36,147 --> 00:38:37,148
Foda-se.
64623
Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.