Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated:
1
00:00:31,264 --> 00:00:34,167
Bem-vindos ao Last Week Tonight.
2
00:00:34,234 --> 00:00:36,336
Eu sou John Oliver.
Muito obrigado pela companhia.
3
00:00:36,403 --> 00:00:37,904
Foi uma semana cheia.
4
00:00:37,971 --> 00:00:41,174
No Brasil, Jair Bolsonaro foi acusado
por uma tentativa de golpe,
5
00:00:41,241 --> 00:00:43,143
e nos EUA, Trump disse à Ucrânia
6
00:00:43,209 --> 00:00:45,879
que nunca deveriam ter começado
a guerra com a Rússia.
7
00:00:45,945 --> 00:00:48,891
E também, ele arrumou tempo para falar
com a imprensa no avião presidencial
8
00:00:48,915 --> 00:00:50,617
para dar um recado importante:
9
00:00:51,051 --> 00:00:53,787
Vamos entrar no Fort Knox
para garantir que o ouro esteja lá.
10
00:00:54,421 --> 00:00:57,690
Sabiam? Vamos entrar no Fort Knox.
Sabiam disso?
11
00:00:59,592 --> 00:01:00,760
Que turbulência.
12
00:01:00,827 --> 00:01:04,597
Vamos entrar no famoso Fort Knox
para garantir que o ouro esteja lá.
13
00:01:05,865 --> 00:01:07,300
{\an8}Aonde o ouro poderia ter ido?
14
00:01:07,767 --> 00:01:09,807
Se o ouro não estiver lá,
vamos ficar bem chateados.
15
00:01:10,470 --> 00:01:14,674
Fora o "que turbulência"
com uma voz de pato,
16
00:01:15,675 --> 00:01:19,579
ele está falando de uma teoria louca
da direita que o ouro sumiu.
17
00:01:19,646 --> 00:01:21,481
Só para constar,
no primeiro mandato de Trump,
18
00:01:21,548 --> 00:01:24,484
o secretário do Tesouro,
Steve Mnuchin foi até lá.
19
00:01:24,551 --> 00:01:27,954
E pela lei de informação,
nós conseguimos essa foto
20
00:01:28,021 --> 00:01:29,956
onde claramente se vê o ouro.
21
00:01:30,023 --> 00:01:34,494
Sei que é difícil de ver
com esse gostosão na frente,
22
00:01:34,561 --> 00:01:36,696
mas eu juro que está ali.
23
00:01:37,097 --> 00:01:40,400
Também vimos o DOGE de Elon Musk
demitir mais funcionários públicos,
24
00:01:40,467 --> 00:01:43,303
o que ele comemorou com uma motosserra
na C-PAC:
25
00:01:48,341 --> 00:01:51,478
Essa é a motosserra para a burocracia!
26
00:01:52,479 --> 00:01:53,613
Motosserra!
27
00:01:54,314 --> 00:01:58,251
Primeiro, é possível que Elon Musk,
o homem mais rico do mundo,
28
00:01:58,318 --> 00:02:01,221
ache que o barulho de uma motosserra
é "motosserra"?
29
00:02:02,355 --> 00:02:05,358
Segundo, não posso falar legalmente
o que eu quero que aconteça ali,
30
00:02:05,425 --> 00:02:08,695
mas posso pensar com muita força,
e estou fazendo isso agora.
31
00:02:09,596 --> 00:02:12,532
A motosserra pode ser uma boa metáfora
para o DOGE,
32
00:02:12,599 --> 00:02:15,869
já que Musk está cortando rapidamente
e sem muita precisão.
33
00:02:16,369 --> 00:02:18,872
O governo já precisou várias vezes
recontratar funcionários
34
00:02:18,938 --> 00:02:20,483
que eles de repente perceberam
que eram essenciais.
35
00:02:20,507 --> 00:02:23,576
Na segunda soubemos que estavam tentando
recontratar mais de 300 funcionários
36
00:02:23,643 --> 00:02:26,012
responsáveis por cuidar
das armas nucleares dos EUA,
37
00:02:26,079 --> 00:02:29,182
depois da terça o USDA disse
ter demitido funcionários
38
00:02:29,249 --> 00:02:32,318
que trabalhavam na resposta
à gripe aviária.
39
00:02:32,752 --> 00:02:35,688
Também cortaram funcionários
no Serviço Nacional de Parques.
40
00:02:35,755 --> 00:02:39,926
E em protesto, uma funcionária demitida
avisou o que isso poderia causar:
41
00:02:40,527 --> 00:02:43,730
{\an8}Nas suas de férias no verão, tomara
que não tenham incêndios florestais,
42
00:02:43,796 --> 00:02:47,033
{\an8}porque eu e milhares de colegas
43
00:02:47,100 --> 00:02:51,037
nos serviços nacionais de parques
44
00:02:51,104 --> 00:02:53,039
não estaremos lá
para ajudar com os incêndios.
45
00:02:53,506 --> 00:02:54,941
Então boa sorte com isso.
46
00:02:55,441 --> 00:02:59,679
É, os guardas florestais fazem mais
que catar lixo, dar passeios
47
00:02:59,746 --> 00:03:02,148
e, julgando por ela, servir visuais.
48
00:03:02,549 --> 00:03:05,351
Os brincos, as tranças,
os óculos escuros.
49
00:03:05,418 --> 00:03:07,887
Ela parece o Homem do Chapéu Amarelo,
mas se ele arrasasse.
50
00:03:08,721 --> 00:03:11,791
E atacar os funcionários dos parques
não foi só imprudente,
51
00:03:11,858 --> 00:03:14,561
foi um ataque aos melhores do país.
52
00:03:14,827 --> 00:03:17,430
São pessoas introvertidas
que amam ficar ao ar livre.
53
00:03:17,497 --> 00:03:20,300
Vejam esse parque dos guardas
do Parque Nacional de Badlands
54
00:03:20,366 --> 00:03:22,535
sobre o que os visitantes
não podem tocar:
55
00:03:23,203 --> 00:03:24,370
Não toque nisso
56
00:03:26,739 --> 00:03:27,740
Não toque nisso
57
00:03:30,310 --> 00:03:31,344
Não toque nisso
58
00:03:33,947 --> 00:03:35,081
Não toque nisso
59
00:03:35,148 --> 00:03:36,282
É perfeito!
60
00:03:36,349 --> 00:03:38,885
Protejam esses bobos a todo custo!
61
00:03:39,285 --> 00:03:41,254
Vocês imaginam as festas de Natal deles?
62
00:03:41,321 --> 00:03:42,789
Um monte de amantes da natureza
63
00:03:42,855 --> 00:03:45,325
dando calendários da folha do mês
um ao outro
64
00:03:45,391 --> 00:03:48,595
e ficando bêbados de cair
com Shirley Temples com álcool.
65
00:03:48,995 --> 00:03:51,831
E eles são comprometidos à mensagem
de não tocar na fauna.
66
00:03:51,898 --> 00:03:54,968
Eles postam tuites como:
"Não faça carinho nas vacas peludas."
67
00:03:55,034 --> 00:03:58,271
E continuam: "Nos parques nacionais
você não acaricia os bisões,
68
00:03:58,338 --> 00:04:00,840
eles acariciam você
se você chegar muito perto."
69
00:04:00,907 --> 00:04:03,576
E eu vou dizer:
Não me ameace com uma coisa boa.
70
00:04:04,978 --> 00:04:07,747
Essa vaca de ombros largos
e cabelo de Patrick Dempsey
71
00:04:07,814 --> 00:04:09,182
pode me montar como nunca.
72
00:04:09,249 --> 00:04:14,220
Não tem ninguém no mundo que não queira
uma sacanagem com esse grandão.
73
00:04:15,188 --> 00:04:20,093
Depois de muitos protestos,
eles readmitiram alguns funcionários,
74
00:04:20,159 --> 00:04:23,763
mostrando duas coisas:
Esse governo pode ser pressionado,
75
00:04:23,830 --> 00:04:26,399
e eles não fazem ideia
do que estão fazendo.
76
00:04:26,933 --> 00:04:30,436
E nada deixa isso mais claro
do que o site do DOGE
77
00:04:30,503 --> 00:04:32,071
postando recibos dos cortes.
78
00:04:32,138 --> 00:04:35,174
Eles dizem que pouparam um total
de $55 bilhões.
79
00:04:35,241 --> 00:04:38,211
Isso se desmentiu imediatamente
assim que descobriram
80
00:04:38,278 --> 00:04:41,781
que só se mostravam provas
para $16 bilhões poupados.
81
00:04:41,848 --> 00:04:45,685
E mesmo esse número era errado,
já que erraram um contrato cancelado
82
00:04:45,752 --> 00:04:48,788
que diziam valer $8 bilhões,
no lugar de $8 milhões.
83
00:04:49,656 --> 00:04:53,593
E ao descartar outras coisas,
como contratos que não foram encerrados,
84
00:04:53,660 --> 00:04:57,397
a NPR descobriu que o total poupado,
com base nos recibos publicados,
85
00:04:57,463 --> 00:04:58,865
era próximo de $2 bilhões.
86
00:04:58,931 --> 00:05:02,769
O que fica a muitos números de distância
de $55 bilhões.
87
00:05:03,336 --> 00:05:06,806
Na verdade, não há uma distância
tão grande entre publicidade e realidade
88
00:05:06,873 --> 00:05:10,576
desde a Experiência Wonka
de Glasgow acabar sendo isso.
89
00:05:11,277 --> 00:05:13,680
No momento, somos todos ela.
90
00:05:14,547 --> 00:05:17,250
E essa não foi a única grande
declaração que se desmoronou.
91
00:05:17,317 --> 00:05:20,353
Há uma semana, Musk postou
essa tabela mostrando milhões de pessoas
92
00:05:20,420 --> 00:05:21,854
na base de dados do Seguro Social
93
00:05:21,921 --> 00:05:23,122
com mais de cem anos.
94
00:05:23,189 --> 00:05:25,224
Ele disse: "Talvez Crepúsculo seja real
95
00:05:25,291 --> 00:05:29,362
e muitos vampiros recebam
aposentadoria", com emojis de riso,
96
00:05:29,429 --> 00:05:32,465
porque ele tem
um senso de humor incrível.
97
00:05:33,299 --> 00:05:36,703
Trump amplificou essa declaração
em uma coletiva de imprensa:
98
00:05:37,203 --> 00:05:40,506
{\an8}Quando eu vi os números
do Seguro Social, eu disse:
99
00:05:40,573 --> 00:05:42,675
{\an8}"Nossa. Impressionante."
100
00:05:42,742 --> 00:05:46,579
{\an8}Com mais de cem anos,
101
00:05:46,646 --> 00:05:50,116
{\an8}temos milhões e milhões de pessoas,
102
00:05:50,183 --> 00:05:51,451
{\an8}todos sabem que não é assim.
103
00:05:51,517 --> 00:05:56,255
{\an8}Pessoas de 150 a 159 anos.
104
00:05:57,290 --> 00:06:00,660
{\an8}No total, 1.345.000.
105
00:06:01,060 --> 00:06:03,563
{\an8}A propósito,
isso está nos arquivos do computador,
106
00:06:03,629 --> 00:06:05,064
{\an8}isso é o que eles fazem bem.
107
00:06:06,165 --> 00:06:09,602
{\an8}Eu perguntei ao Elon,
quem é esse pessoal do DOGE?
108
00:06:10,303 --> 00:06:13,406
{\an8}Ele disse que são pessoas brilhantes
com computadores e que amam o país.
109
00:06:13,940 --> 00:06:16,976
Certo. Ele claramente está lendo isso
pela primeira vez,
110
00:06:17,043 --> 00:06:19,645
porque ninguém diz
"nossa, impressionante",
111
00:06:19,712 --> 00:06:21,214
se sabe do que está falando.
112
00:06:21,547 --> 00:06:24,117
Diz "impressionante"
quando seu filho te dá
113
00:06:24,183 --> 00:06:26,352
um desenho da família
e você não sabe onde você acaba
114
00:06:26,419 --> 00:06:27,820
e o seu cachorro começa.
115
00:06:28,488 --> 00:06:30,490
Quanto às "pessoas brilhantes
com computadores",
116
00:06:30,556 --> 00:06:32,492
acabou que não são tão brilhantes.
117
00:06:32,825 --> 00:06:34,660
Porque parece que a tabela veio
118
00:06:34,727 --> 00:06:36,105
de uma base de dados do Seguro Social
119
00:06:36,129 --> 00:06:38,464
com dados básicos
de todos os números de identificação
120
00:06:38,531 --> 00:06:39,699
que já foram criados.
121
00:06:39,766 --> 00:06:43,770
Uma auditoria de 2023
encontrou 19 milhões de pessoas
122
00:06:43,836 --> 00:06:45,581
de mais de cem anos
sem uma morte registrada,
123
00:06:45,605 --> 00:06:48,408
mas uma coisa crucial:
O próprio Seguro Social viu
124
00:06:48,474 --> 00:06:51,644
que quase nenhum deles
recebia da agência,
125
00:06:51,711 --> 00:06:56,282
e custaria entre $5,5 e $10 milhões
para corrigir o erro.
126
00:06:56,349 --> 00:06:59,619
O que é muito mais
do que se economizaria.
127
00:06:59,685 --> 00:07:01,120
E essa é a questão.
128
00:07:01,687 --> 00:07:03,723
Por mais que Trump e Musk se gabem,
129
00:07:03,790 --> 00:07:07,226
muitos cortes deles são aleatórios,
desorganizados e simplesmente estúpidos.
130
00:07:07,727 --> 00:07:11,497
Conforme os danos reais e substanciais
disso ficam mais claros,
131
00:07:11,564 --> 00:07:15,268
eu imagino que imagens como Elon
com uma motosserra
132
00:07:15,334 --> 00:07:18,204
vestido de Morte
após encher a cara em Las Vegas
133
00:07:18,771 --> 00:07:20,873
vão gerar muita indignação pública,
134
00:07:20,940 --> 00:07:24,010
e quando eles estiverem com essa raiva
direcionada para eles,
135
00:07:24,076 --> 00:07:27,380
usando as palavras
de uma guarda florestal furiosa:
136
00:07:28,147 --> 00:07:29,182
Boa sorte com isso.
137
00:07:29,549 --> 00:07:30,716
Exatamente.
138
00:07:30,783 --> 00:07:32,151
E agora, isso:
139
00:07:32,919 --> 00:07:36,856
E agora, Frankie Jupiter, da CBS 58
140
00:07:36,923 --> 00:07:38,925
sabe jogar conversa fora.
141
00:07:39,392 --> 00:07:40,426
{\an8}Onde está a Peaches?
142
00:07:40,493 --> 00:07:42,128
{\an8}Está em casa, deitada com o pai.
143
00:07:42,695 --> 00:07:44,106
{\an8}Mas não se preocupe,
eu ainda sou a preferida.
144
00:07:44,130 --> 00:07:45,164
{\an8}Certo...
145
00:07:45,231 --> 00:07:46,933
{\an8}- Sem dúvidas.
- Mas tem certeza?
146
00:07:46,999 --> 00:07:48,034
{\an8}Tenho!
147
00:07:48,100 --> 00:07:50,002
{\an8}Você sabe quando é a favorita
do seu cachorro.
148
00:07:50,369 --> 00:07:52,371
{\an8}Não sei como, mas você sabe.
149
00:07:52,672 --> 00:07:54,807
{\an8}E já comprei duas fantasias
de Halloween para ela.
150
00:07:54,874 --> 00:07:56,342
{\an8}E ela amou.
151
00:07:56,409 --> 00:07:57,510
{\an8}Mas tem certeza?
152
00:07:57,910 --> 00:07:59,946
{\an8}Como vocês estão?
153
00:08:00,079 --> 00:08:01,214
{\an8}- Bem!
- Bem?
154
00:08:01,280 --> 00:08:03,082
{\an8}- Sim, e você?
- Eu estou bem. E você?
155
00:08:03,149 --> 00:08:04,584
Maravilha. Sem reclamações.
156
00:08:04,884 --> 00:08:06,219
Bem...
157
00:08:06,285 --> 00:08:07,954
É sexta-feira 13.
158
00:08:08,020 --> 00:08:09,055
Pois é.
159
00:08:09,121 --> 00:08:11,290
- Eu não tinha percebido.
- É. Cadê o guarda-chuva?
160
00:08:11,357 --> 00:08:12,758
Precisamos de um gato preto.
161
00:08:13,726 --> 00:08:15,027
E um espelho para quebrar.
162
00:08:15,561 --> 00:08:16,762
Frankie tem um espelho.
163
00:08:16,829 --> 00:08:18,498
Esperem, esperem!
164
00:08:18,998 --> 00:08:21,300
Se tivesse comprado ações da Apple,
não estaria aqui hoje.
165
00:08:22,034 --> 00:08:23,069
Verdade.
166
00:08:23,135 --> 00:08:24,935
Ia administrar sua própria
empresa milionária.
167
00:08:24,971 --> 00:08:26,005
Também é verdade.
168
00:08:26,072 --> 00:08:28,975
- E isso seria melhor?
- Seria.
169
00:08:29,342 --> 00:08:31,043
{\an8}Mas não parece uma sexta-feira?
170
00:08:31,110 --> 00:08:32,278
{\an8}Não.
171
00:08:32,912 --> 00:08:34,347
Já quiseram ser astronautas?
172
00:08:35,414 --> 00:08:36,449
Não.
173
00:08:36,516 --> 00:08:38,751
O que você quer hoje?
Talvez queira comprar algo bonito.
174
00:08:39,585 --> 00:08:40,620
Eu estou tranquilo.
175
00:08:40,853 --> 00:08:42,531
{\an8}Quem acham que seríamos
se fôssemos os Beatles?
176
00:08:42,555 --> 00:08:43,589
{\an8}Eu seria o Ringo?
177
00:08:43,656 --> 00:08:44,690
{\an8}Quem você quer ser?
178
00:08:44,757 --> 00:08:45,791
{\an8}Tanto faz.
179
00:08:45,858 --> 00:08:46,993
{\an8}Você é quem quiser ser.
180
00:08:47,059 --> 00:08:48,261
{\an8}Quem você quer ser? O Paul?
181
00:08:48,327 --> 00:08:49,662
Eu fico com quem sobrar.
182
00:08:50,062 --> 00:08:51,364
Quem você quer ser?
183
00:08:52,465 --> 00:08:54,233
Eu só estou aqui para não ser demitido.
184
00:08:54,300 --> 00:08:56,002
E AGORA
185
00:08:56,969 --> 00:08:58,337
Continuando.
186
00:08:58,404 --> 00:09:02,842
O tema de hoje é sobre tecnologia,
o que nos deu ferramentas de pedra,
187
00:09:02,909 --> 00:09:05,678
catapultas, Tamagotchi
e algum dia, se Deus quiser,
188
00:09:05,745 --> 00:09:07,480
uma quarta coisa que valha a pena.
189
00:09:08,281 --> 00:09:10,082
Uma das grandes notícias
na eleição passada
190
00:09:10,149 --> 00:09:12,818
foi como a indústria da tecnologia
foi para o lado de Trump.
191
00:09:12,885 --> 00:09:15,555
Elon Musk fez campanha e pulou por ele,
192
00:09:15,888 --> 00:09:19,158
Jeff Bezos não deixou o Washington Post
apoiar Kamala Harris
193
00:09:19,225 --> 00:09:21,427
e recebeu um lugar de honra
na cerimônia de posse
194
00:09:21,494 --> 00:09:23,996
com os presidentes da Google e Apple.
195
00:09:24,063 --> 00:09:27,166
Mas uma das mudanças mais visíveis
foi a de Mark Zuckerberg.
196
00:09:27,233 --> 00:09:29,702
Ele teve uma decisão famosa
de banir Trump do Facebook
197
00:09:29,769 --> 00:09:30,803
depois do 6 de janeiro,
198
00:09:30,870 --> 00:09:33,940
mas mês passado ele organizou
uma festa durante a posse,
199
00:09:34,006 --> 00:09:36,976
e duas semanas antes ele fez
essa declaração surpreendente:
200
00:09:37,610 --> 00:09:38,778
Oi, pessoal.
201
00:09:38,844 --> 00:09:40,780
Eu quero falar hoje
sobre uma coisa importante.
202
00:09:40,846 --> 00:09:42,566
Está na hora de voltarmos
para nossas raízes
203
00:09:42,615 --> 00:09:45,351
com a liberdade de expressão
no Facebook e Instagram.
204
00:09:45,418 --> 00:09:47,153
Era disso que você queria falar?
205
00:09:47,219 --> 00:09:49,355
Porque sinceramente, eu prefiro falar
206
00:09:49,422 --> 00:09:52,325
por que você parece o Eddie Redmayne
tentando interpretar o Ice Cube.
207
00:09:53,059 --> 00:09:54,594
Parece um Macklemore branco.
208
00:09:54,860 --> 00:09:58,564
Parece um aluno do ensino médio
disfarçado como outro com menos amigos.
209
00:09:58,631 --> 00:10:01,901
Mas perdão, você estava falando
em voltar para suas raízes:
210
00:10:02,735 --> 00:10:05,204
Primeiro, vamos nos livrar
das checagens de fatos
211
00:10:05,271 --> 00:10:07,206
e substituir por notas da comunidade,
212
00:10:07,273 --> 00:10:09,208
como no X, e vamos começar pelos EUA.
213
00:10:09,475 --> 00:10:12,745
Segundo, vamos simplificar
nossas políticas de conteúdo
214
00:10:12,812 --> 00:10:16,382
e eliminar restrições em temas
como imigração e gênero
215
00:10:16,449 --> 00:10:18,851
que estão fora do tom
com o discurso geral.
216
00:10:18,918 --> 00:10:22,588
Terceiro, vamos mudar como reforçamos
nossas políticas
217
00:10:22,655 --> 00:10:26,926
para reduzir os erros que levam a grande
parte da censura nas nossas plataformas.
218
00:10:27,860 --> 00:10:31,130
Nós tínhamos filtros que buscavam
por qualquer violação de políticas.
219
00:10:31,631 --> 00:10:36,202
Agora vamos concentrar os filtros
em violações ilegais e muito severas.
220
00:10:36,802 --> 00:10:39,772
Para violações menores, vamos confiar
221
00:10:39,839 --> 00:10:42,308
que alguém denuncie o problema
antes de agirmos.
222
00:10:42,675 --> 00:10:46,345
É, o CEO da Meta anunciou
que vai tirar a checagem de fatos
223
00:10:46,412 --> 00:10:49,882
para não ficar "fora do tom
do discurso geral"
224
00:10:49,949 --> 00:10:52,952
enquanto mostra um relógio de $900.000.
225
00:10:53,419 --> 00:10:57,757
Não tem como um relógio valer tanto,
a menos que ele diga:
226
00:10:57,823 --> 00:10:59,568
"Está na hora de doar o resto
do seu dinheiro,
227
00:10:59,592 --> 00:11:01,827
parece que você oficialmente
já tem demais."
228
00:11:02,395 --> 00:11:04,830
As mudanças de Zuckerberg surpreendem.
229
00:11:04,897 --> 00:11:07,500
Um documento vazado mostra
que agora é aceitável dizer:
230
00:11:07,566 --> 00:11:09,835
"Imigrantes são uns merdas nojentos".
231
00:11:09,902 --> 00:11:12,605
E também especifica
que xingamentos a pessoas trans
232
00:11:12,672 --> 00:11:15,775
não se classificam como xingamentos,
e agora são permitidos.
233
00:11:16,142 --> 00:11:18,844
Quanto ao uso de notas da comunidade
seguindo o exemplo do X,
234
00:11:18,911 --> 00:11:22,381
vale notar que elas não fizeram
um grande sucesso.
235
00:11:22,682 --> 00:11:25,518
Um estudo mostra que quase três quartos
das notas da comunidade
236
00:11:25,584 --> 00:11:27,086
sobre desinformação eleitoral
237
00:11:27,153 --> 00:11:28,621
nunca foram mostradas aos usuários.
238
00:11:28,688 --> 00:11:31,991
Lembra do tuite acusando falsamente
haitianos de comerem bichos de estimação
239
00:11:32,058 --> 00:11:33,392
em Springfield, Ohio?
240
00:11:33,459 --> 00:11:38,631
Foi a mentira do ano no PolitiFact,
mas ainda não tem notas da comunidade
241
00:11:38,698 --> 00:11:41,267
nesse tuite, apesar das várias
tentativas de acrescentar uma.
242
00:11:41,333 --> 00:11:44,670
E tudo isso é uma mudança notável
para Zuckerberg,
243
00:11:44,737 --> 00:11:48,340
porque há sete anos, durante
uma revolta sobre o Facebook
244
00:11:48,407 --> 00:11:51,877
espalhando desinformação e ódio,
ele foi ao Congresso se desculpar:
245
00:11:52,645 --> 00:11:54,580
{\an8}Em maior parte da nossa história,
246
00:11:54,647 --> 00:11:57,383
{\an8}nós focamos nas coisas boas
de conectar as pessoas.
247
00:11:57,450 --> 00:12:00,853
{\an8}Mas é claro que não fizemos o bastante
para impedir essas ferramentas
248
00:12:00,920 --> 00:12:02,788
{\an8}de serem usadas para o mal também.
249
00:12:03,055 --> 00:12:05,057
{\an8}E isso é sobre notícias falsas,
250
00:12:05,124 --> 00:12:06,692
{\an8}intervenção estrangeira nas eleições
251
00:12:06,759 --> 00:12:10,096
{\an8}e discurso de ódio,
assim como privacidade de dados.
252
00:12:11,130 --> 00:12:14,500
{\an8}Não tivemos uma visão ampla o bastante
da nossa responsabilidade,
253
00:12:14,567 --> 00:12:15,935
{\an8}e isso foi um grande erro.
254
00:12:16,569 --> 00:12:18,637
{\an8}Foi um erro meu. E eu sinto muito.
255
00:12:19,605 --> 00:12:24,009
É, parece que esse fantasma vitoriano
fez uma mudança muito grande,
256
00:12:24,076 --> 00:12:26,679
não só no que ele diz,
mas na aparência dele.
257
00:12:26,746 --> 00:12:29,815
E eu admito, o novo Zuckerberg
parece se divertir mais.
258
00:12:30,583 --> 00:12:33,786
Ele está bronzeado, parece comprar
em lojas que só aceitam criptomoedas
259
00:12:33,853 --> 00:12:38,290
e não está no Congresso parecendo
uma versão triste do boneco do "Stonks".
260
00:12:39,925 --> 00:12:42,561
Zuckerberg está dizendo que isso
é apenas uma resposta
261
00:12:42,628 --> 00:12:44,130
a uma mudança cultural mais ampla,
262
00:12:44,196 --> 00:12:47,133
algo que, naturalmente, ele definiu
com Joe Rogan:
263
00:12:47,733 --> 00:12:50,703
O que fazemos é criar uma plataforma
que dá voz para as pessoas,
264
00:12:50,770 --> 00:12:55,007
mas sei que existe
uma mudança geracional
265
00:12:55,574 --> 00:12:57,643
em quem está sendo ouvido.
266
00:12:57,710 --> 00:13:03,149
É uma mudança grande, dizendo:
"Confiamos em pessoas diferentes".
267
00:13:03,449 --> 00:13:04,483
Sei.
268
00:13:04,550 --> 00:13:09,255
"Eles vão nos contar a verdade,
e não dar as opiniões de merda
269
00:13:09,321 --> 00:13:12,958
que você precisa dar,
mas o tipo de coisa que eu,
270
00:13:13,025 --> 00:13:15,594
quando estou na sala de casa
com meus amigos,
271
00:13:15,661 --> 00:13:17,301
as coisas que sabemos
que são de verdade."
272
00:13:17,329 --> 00:13:21,333
Tem alguma coisa mais incômoda
do que um bilionário
273
00:13:21,400 --> 00:13:23,469
tentando parecer um homem comum?
274
00:13:23,536 --> 00:13:26,672
Sabe como é,
ficar na sala com os parceiros,
275
00:13:26,739 --> 00:13:29,375
abrindo um engradado
de Ace of Spades magnum,
276
00:13:29,441 --> 00:13:32,878
sentados em um sofá de diamantes
e ligando a televisão,
277
00:13:32,945 --> 00:13:35,881
que na minha casa é uma caixa vazia
onde o elenco de The Office
278
00:13:35,948 --> 00:13:37,125
recria minhas cenas favoritas.
279
00:13:37,149 --> 00:13:40,586
Coisas que acontecem
com todo mundo, pessoal!
280
00:13:40,653 --> 00:13:45,591
E olhem, eu não digo que o Facebook
moderava o conteúdo perfeitamente.
281
00:13:45,658 --> 00:13:48,327
Nós os criticamos várias vezes
aqui no programa.
282
00:13:48,594 --> 00:13:51,497
Também não estou dizendo
que poderiam fazer perfeitamente.
283
00:13:51,564 --> 00:13:54,767
Dizem que é impossível
moderar bem algum conteúdo
284
00:13:54,834 --> 00:13:56,101
em grande escala.
285
00:13:56,168 --> 00:13:58,838
Mas a decisão de abandonar
as checagens de fatos
286
00:13:58,904 --> 00:14:02,675
e desligar os sistemas que diziam
deixar a plataforma mais segura
287
00:14:02,741 --> 00:14:05,878
parece indicar que o site
vai ficar muito pior.
288
00:14:06,312 --> 00:14:09,882
E Zuckerberg, cujo nome de rapper
é Pequeno Brócolis,
289
00:14:10,216 --> 00:14:14,854
como alguém que está abraçando
as raízes da empresa
290
00:14:14,920 --> 00:14:17,560
sobre liberdade de expressão,
serve uma mentira para o bem próprio.
291
00:14:17,623 --> 00:14:21,460
Com tudo isso, hoje à noite
nós vamos ver os desafios
292
00:14:21,527 --> 00:14:24,363
da moderação de conteúdo,
como o Facebook lidava com elas antes
293
00:14:24,430 --> 00:14:26,232
e o que teria levado
a uma nova abordagem.
294
00:14:26,298 --> 00:14:27,766
Vamos começar pelos desafios.
295
00:14:27,833 --> 00:14:32,738
Desde o início da internet moderna,
havia preocupação com o que tinha nela:
296
00:14:33,639 --> 00:14:38,644
Em 1995, o senador James Exon
levou uma pasta azul ao Senado.
297
00:14:39,178 --> 00:14:40,446
Estava cheia de...
298
00:14:40,880 --> 00:14:44,717
Os tipos mais pesados e perversos
de pornografia.
299
00:14:45,484 --> 00:14:47,286
As imagens vieram da internet.
300
00:14:47,987 --> 00:14:51,023
Exon queria que o Senado entendesse
o que as crianças poderiam ver.
301
00:14:51,457 --> 00:14:52,858
{\an8}Venham na minha mesa
302
00:14:53,659 --> 00:14:57,763
{\an8}e vejam esse material nojento.
303
00:14:58,564 --> 00:15:01,000
Certo, temos muito a dizer,
304
00:15:01,066 --> 00:15:03,302
desde a pasta com "cuidado"
em letras garrafais
305
00:15:03,369 --> 00:15:07,673
ao convite de ir até a mesa dele
para ver um "material nojento".
306
00:15:08,574 --> 00:15:12,244
Mas minha parte preferida
é a imagem de uma Playboy
307
00:15:12,311 --> 00:15:14,113
carregando um centímetro por vez.
308
00:15:14,446 --> 00:15:19,118
É uma descrição muito precisa de como
era a pornografia online nos anos 90.
309
00:15:19,418 --> 00:15:21,587
Como eu sei?
Por nenhum motivo em especial.
310
00:15:22,955 --> 00:15:26,992
Na época, tiveram batalhas
no Congresso e no Judiciário
311
00:15:27,059 --> 00:15:29,662
sobre como a lei trataria sites
trazendo conteúdos
312
00:15:29,728 --> 00:15:31,830
como pornografia
e comentários difamatórios.
313
00:15:31,897 --> 00:15:36,101
Brevemente se perguntaram
se um site que modera conteúdos
314
00:15:36,168 --> 00:15:38,437
era uma editora, e portanto, responsável
315
00:15:38,504 --> 00:15:39,805
por tudo que não removessem.
316
00:15:39,872 --> 00:15:43,542
Isso levou à aprovação da Seção 230,
317
00:15:43,609 --> 00:15:45,778
muitas vezes descrita
como as 26 palavras
318
00:15:45,844 --> 00:15:47,379
que criaram a internet.
319
00:15:47,446 --> 00:15:51,483
Diz que empresas não são responsáveis
pelo que usuários publicam,
320
00:15:51,550 --> 00:15:56,021
porque diferente de algo impresso,
sites lidam com tanto material
321
00:15:56,088 --> 00:15:57,690
que é impossível controlar tudo.
322
00:15:57,756 --> 00:15:59,124
Ela tem algumas exceções,
323
00:15:59,191 --> 00:16:02,227
ela não permite que sites
publiquem conteúdos ilegais,
324
00:16:02,294 --> 00:16:04,463
como matérias sobre abuso infantil
e terrorismo,
325
00:16:04,530 --> 00:16:06,999
mas, em geral, permitem
que moderem sem medo,
326
00:16:07,066 --> 00:16:08,534
o que é bom.
327
00:16:08,600 --> 00:16:12,871
Porque, como dizem os especialistas,
moderação de conteúdo é a chave
328
00:16:12,938 --> 00:16:14,640
para que a internet seja tolerável:
329
00:16:15,140 --> 00:16:20,279
{\an8}Não se pode ter uma plataforma
utilizável sem nenhuma moderação.
330
00:16:20,346 --> 00:16:24,750
{\an8}Senão, todas as plataformas seriam
só pornô e remédios para emagrecer.
331
00:16:25,317 --> 00:16:29,855
Sim, isso seria um problema,
ainda mais em site como o LinkedIn.
332
00:16:29,922 --> 00:16:33,559
Mas, dizendo a verdade,
pode ser que lá já seja isso,
333
00:16:33,625 --> 00:16:34,927
eu não entro lá há anos,
334
00:16:34,994 --> 00:16:38,330
já que trabalho aqui desde 2014
e, sinceramente, não quero saber
335
00:16:38,397 --> 00:16:40,499
sobre como os outros ascendem
e trabalham duro.
336
00:16:40,899 --> 00:16:44,803
A questão é que se você quer
que as pessoas usem seu site
337
00:16:44,870 --> 00:16:48,507
e principalmente que as empresas
paguem por propagandas nele,
338
00:16:48,574 --> 00:16:51,343
você tem que decidir o que remover.
339
00:16:51,410 --> 00:16:55,014
E a forma de decidir isso
sempre vai gerar conflitos.
340
00:16:55,514 --> 00:16:58,283
Ao longo do ano, o Facebook
aprendeu isso do jeito difícil.
341
00:16:58,350 --> 00:17:01,920
No começo, a abordagem era tão ingênua
que era triste,
342
00:17:01,987 --> 00:17:03,789
como um ex-funcionário explicou:
343
00:17:05,124 --> 00:17:08,994
Tivemos que ditar regras simples:
Decência básica, nada de nudez,
344
00:17:09,061 --> 00:17:10,696
nada de discursos violentos ou de ódio.
345
00:17:11,063 --> 00:17:15,200
{\an8}E depois disso, ficamos relutantes
346
00:17:16,068 --> 00:17:18,871
{\an8}em impor os nossos valores
347
00:17:19,571 --> 00:17:22,708
sobre uma comunidade mundial
que estava em crescimento.
348
00:17:23,175 --> 00:17:25,844
Não houve preocupação
de que poderia virar
349
00:17:25,911 --> 00:17:29,014
um lugar de confusão total?
350
00:17:29,782 --> 00:17:34,686
Que as mentiras teriam o mesmo peso
das verdades?
351
00:17:35,220 --> 00:17:37,790
Que se tornaria um lugar onde a verdade
352
00:17:37,856 --> 00:17:40,592
fica totalmente ofuscada?
353
00:17:41,193 --> 00:17:42,294
Não.
354
00:17:42,361 --> 00:17:45,597
Nós confiamos no que achamos
que seria senso comum das pessoas
355
00:17:45,664 --> 00:17:49,034
e decência comum para gerenciar o site.
356
00:17:49,802 --> 00:17:51,170
Foi mesmo?
357
00:17:51,904 --> 00:17:55,274
Eu diria que isso é adorável,
mas eu teria vergonha
358
00:17:55,340 --> 00:17:58,477
de ir na televisão e confirmar
que todos que trabalhavam no Facebook
359
00:17:58,544 --> 00:18:02,481
tinham um nível de ingenuidade
que podemos chamar de completamente
360
00:18:02,548 --> 00:18:03,816
Amelia Bedelia.
361
00:18:04,850 --> 00:18:06,985
Obviamente, o otimismo inicial
não durou.
362
00:18:07,052 --> 00:18:09,888
Com o tempo, o Facebook passou
a implementar mais regras
363
00:18:09,955 --> 00:18:12,624
e empregar cada vez mais gente
para reforçá-las.
364
00:18:12,691 --> 00:18:14,793
E esse podia ser um trabalho terrível.
365
00:18:15,160 --> 00:18:17,696
Vamos ver um moderador
dizendo como era analisar
366
00:18:17,763 --> 00:18:19,665
milhares de imagens perturbadoras
por dia,
367
00:18:19,731 --> 00:18:23,102
com, eu aviso logo,
um disfarce que causa distração:
368
00:18:23,669 --> 00:18:26,772
{\an8}Acho que seria mais fácil
cuidar das imagens
369
00:18:26,839 --> 00:18:29,708
{\an8}se não tivéssemos que pensar nelas
com tanta profundidade.
370
00:18:30,776 --> 00:18:35,380
{\an8}Eu trabalhava à noite.
Das 18h até às 2h.
371
00:18:35,681 --> 00:18:36,915
{\an8}Duas da madrugada.
372
00:18:36,982 --> 00:18:39,685
{\an8}Mas aí você acorda
três ou quatro horas depois,
373
00:18:39,751 --> 00:18:43,755
{\an8}de repente você senta na cama e lembra
de uma decisão que tomou,
374
00:18:43,822 --> 00:18:45,390
{\an8}e percebe que cometeu um erro.
375
00:18:45,657 --> 00:18:47,025
{\an8}Como: Não vi um mamilo.
376
00:18:47,826 --> 00:18:50,395
{\an8}Você lembra de uma imagem que viu,
e de repente percebe
377
00:18:50,462 --> 00:18:55,134
{\an8}que tinha uma mulher nua ao lado,
ou uma bandeira do Estado Islâmico,
378
00:18:55,200 --> 00:18:58,070
{\an8}que deveria ter sido apagada
pela política antiterrorismo.
379
00:18:58,470 --> 00:19:02,708
Ignorando que isso vem de um adulto
com cabeça de bebê, voz do Darth Vader
380
00:19:02,774 --> 00:19:04,076
e roupas de férias,
381
00:19:04,143 --> 00:19:07,980
é um olhar deprimente
do que o Facebook enfrentava.
382
00:19:08,046 --> 00:19:11,984
E tem uma grande distância
entre confiar na bondade humana
383
00:19:12,050 --> 00:19:14,620
e contratar gente para consumir
pornografia terrorista.
384
00:19:14,887 --> 00:19:17,789
E algumas decisões para bloquear
conteúdo foram fáceis,
385
00:19:17,856 --> 00:19:19,258
mas outras foram mais difíceis.
386
00:19:19,324 --> 00:19:21,760
Pensem: Se banirmos a nudez,
387
00:19:21,827 --> 00:19:26,865
e quanto a estátuas? E amamentação?
E uma estátua amamentando?
388
00:19:26,932 --> 00:19:29,868
E antes de responderem,
e se eu estivesse falando dessa?
389
00:19:29,935 --> 00:19:32,804
Viram? Fica difícil bem rápido.
390
00:19:33,272 --> 00:19:36,141
A empresa também precisou desenvolver
políticas sobre discurso de ódio
391
00:19:36,208 --> 00:19:39,244
e desinformação,
onde os limites são mais difíceis.
392
00:19:39,311 --> 00:19:41,213
Por exemplo, as regras proibiam
393
00:19:41,280 --> 00:19:44,483
atacar pessoas por serem
de "grupos protegidos",
394
00:19:44,550 --> 00:19:47,953
por raça, sexo, gênero e credo,
395
00:19:48,020 --> 00:19:50,789
mas permitia maior liberdade
396
00:19:50,856 --> 00:19:53,625
quando se referiam a subgrupos
nessas categorias.
397
00:19:53,692 --> 00:19:57,896
E é bizarro ver os moderadores
tentando colocar isso em prática,
398
00:19:57,963 --> 00:19:59,741
como mostra esse vídeo
de uma câmera escondida
399
00:19:59,765 --> 00:20:01,800
em um centro de moderação na Irlanda:
400
00:20:02,467 --> 00:20:06,371
{\an8}Essa denúncia aí,
"voltem para a porra do seu país"
401
00:20:06,438 --> 00:20:09,241
{\an8}e diz "muçulmanos"... e imigrantes.
402
00:20:09,508 --> 00:20:10,742
{\an8}"Imigrantes muçulmanos".
403
00:20:10,809 --> 00:20:13,512
{\an8}Se fosse só "muçulmanos"
você teria que agir.
404
00:20:13,779 --> 00:20:15,647
{\an8}Mas não diz, então ignore.
405
00:20:17,950 --> 00:20:20,652
{\an8}"Ele cuida de imigrantes
muçulmanos fedorentos."
406
00:20:21,320 --> 00:20:22,354
{\an8}Acho que está bem.
407
00:20:22,421 --> 00:20:23,555
{\an8}Está bem?
408
00:20:24,523 --> 00:20:28,460
{\an8}Sim, porque chamar de "fedorento"
pode ser inferioridade física.
409
00:20:28,827 --> 00:20:29,861
{\an8}Certo.
410
00:20:29,928 --> 00:20:32,864
{\an8}Se fosse "escória muçulmana imigrante",
por exemplo, nós apagaríamos.
411
00:20:33,532 --> 00:20:35,968
É, o limite é estranho.
412
00:20:36,034 --> 00:20:39,538
Mas qualquer limite pode ser estranho.
413
00:20:40,172 --> 00:20:42,274
Ver em que momento um discurso
passa a ser de ódio
414
00:20:42,341 --> 00:20:45,711
é como dizer qual pesadelo
nas capas de Animorphs
415
00:20:45,777 --> 00:20:47,813
você não atropelaria com seu carro.
416
00:20:47,879 --> 00:20:49,948
Esses monstros, é claro, na hora.
417
00:20:50,015 --> 00:20:53,085
Eu atropelo com meu Subaru
a 100 por hora e não sinto nada.
418
00:20:53,151 --> 00:20:55,887
Do outro lado, esperem aí,
é uma criança normal.
419
00:20:56,355 --> 00:20:58,156
Devagar, não quero ser preso.
420
00:20:58,223 --> 00:21:00,659
Mas o meio é duvidoso, não é?
421
00:21:01,226 --> 00:21:02,828
Essa é a dúvida.
422
00:21:03,595 --> 00:21:05,931
E é a mesma coisa com checagem de fatos.
423
00:21:05,998 --> 00:21:08,934
Mentiras óbvias são uma coisa,
mas existem várias observações
424
00:21:09,001 --> 00:21:11,770
que trazem fatos,
mas ainda podem desinformar.
425
00:21:11,837 --> 00:21:14,373
Em um momento o Facebook
pensou muito nisso.
426
00:21:14,439 --> 00:21:18,110
Fizeram até esse vídeo em 2018
com vários funcionários
427
00:21:18,176 --> 00:21:20,445
debatendo as nuances da moderação.
428
00:21:20,512 --> 00:21:23,382
Um até fez um diagrama
do problema que enfrentava:
429
00:21:24,116 --> 00:21:27,052
{\an8}Imaginem que no eixo X
você tem a quantidade de verdade
430
00:21:27,119 --> 00:21:28,287
{\an8}de um certo conteúdo.
431
00:21:28,353 --> 00:21:31,690
{\an8}No eixo Y você tem a intenção
de desinformar.
432
00:21:31,757 --> 00:21:34,860
Esse gráfico pode se dividir
em quatro quadrantes.
433
00:21:35,160 --> 00:21:36,437
No inferior esquerdo, você tem coisas
434
00:21:36,461 --> 00:21:39,931
sem verdade mas com pouca intenção
de desinformar
435
00:21:39,998 --> 00:21:42,034
Isso se chama estar errado na internet,
436
00:21:42,100 --> 00:21:43,302
e isso acontece.
437
00:21:43,368 --> 00:21:47,639
No lado direito, tem verdade
mas ninguém quis desinformar.
438
00:21:47,973 --> 00:21:49,708
Isso é estar certo.
439
00:21:49,775 --> 00:21:51,176
Com certeza vai acontecer um dia.
440
00:21:51,243 --> 00:21:54,913
Aqui em cima temos muita verdade,
muita intenção de desinformar.
441
00:21:54,980 --> 00:21:56,715
É o caso da propaganda.
442
00:21:56,982 --> 00:22:00,085
É como escolher estatísticas
que eu quero mostrar.
443
00:22:00,519 --> 00:22:02,354
Aqui nós temos que tomar cuidado.
444
00:22:02,421 --> 00:22:04,956
Por causa do nosso compromisso
com liberdade de expressão,
445
00:22:05,023 --> 00:22:07,993
tudo que fazemos aqui
tem que ter muito, muito cuidado.
446
00:22:08,060 --> 00:22:09,561
Depois passamos para esse quadrante.
447
00:22:09,628 --> 00:22:11,663
É um quadrante muito perigoso, certo?
448
00:22:11,730 --> 00:22:14,299
Pouca quantidade de verdade,
muita intenção de desinformar.
449
00:22:14,366 --> 00:22:17,636
São coisas projetadas especialmente
para viralizar.
450
00:22:17,703 --> 00:22:19,271
São as grandes mentiras.
451
00:22:19,338 --> 00:22:22,240
Um exemplo é o Pizzagate.
São simplesmente falsos.
452
00:22:22,307 --> 00:22:25,477
Temos que acertar aqui para reconquistar
a confiança das pessoas.
453
00:22:25,844 --> 00:22:29,047
É incrível que tudo isso
começou quando um jovem
454
00:22:29,114 --> 00:22:32,217
tinha um sonho de fazer um ranking
das colegas por desejo sexual.
455
00:22:32,284 --> 00:22:35,520
E 15 anos depois uma empresa
precisa impedir as pessoas
456
00:22:35,587 --> 00:22:38,423
de acusar pizzarias de tráfico humano.
457
00:22:39,024 --> 00:22:43,462
Uma borboleta se masturba no quarto
e vira um furacão para o resto de nós.
458
00:22:44,162 --> 00:22:47,833
E dando crédito a esse homem,
ele quer mesmo resolver o problema.
459
00:22:47,899 --> 00:22:51,203
Mas a empresa não fazia isso
por ter um coração bom.
460
00:22:51,503 --> 00:22:54,048
O Facebook estava sendo muito criticado
por permitir a proliferação
461
00:22:54,072 --> 00:22:55,974
de notícias falsas e discurso de ódio
462
00:22:56,041 --> 00:22:57,976
não só nos EUA, mas também no exterior.
463
00:22:58,043 --> 00:23:02,114
Já falamos de como a desinformação
no Facebook impulsionou o ódio étnico.
464
00:23:02,180 --> 00:23:03,448
Levando a manchetes como:
465
00:23:03,515 --> 00:23:06,952
"Facebook admite que foi usado
para incitar violência em Myanmar."
466
00:23:07,018 --> 00:23:10,622
Foi nessa época que Zuckerberg
se desculpou com o Congresso.
467
00:23:10,689 --> 00:23:14,726
A empresa deu várias opções
para lidar com a desinformação.
468
00:23:14,793 --> 00:23:18,697
Trabalharam com verificadores externos,
colocaram notas nas postagens,
469
00:23:18,764 --> 00:23:21,800
também apagava algumas postagens
e reduzia o alcance de outras.
470
00:23:21,867 --> 00:23:25,871
Com isso, eles se viam constantemente
tomando decisões bem difíceis
471
00:23:25,937 --> 00:23:28,206
por pressão de gente muito poderosa.
472
00:23:28,273 --> 00:23:32,744
Aqui temos um caso explicado
por uma ex-funcionária:
473
00:23:33,378 --> 00:23:35,881
Queremos dar a esse presidente
474
00:23:35,947 --> 00:23:40,018
a possibilidade de fazer
uma coisa histórica.
475
00:23:40,385 --> 00:23:43,989
Esse é um vídeo da ex-presidente
da Câmara, Pelosi,
476
00:23:44,055 --> 00:23:46,391
publicado no Facebook em 2019.
477
00:23:46,725 --> 00:23:50,996
Diminuíram a velocidade para parecer
que ela falava devagar.
478
00:23:52,063 --> 00:23:53,198
{\an8}Ele foi apagado?
479
00:23:53,498 --> 00:23:55,000
{\an8}- Não.
- Por quê?
480
00:23:55,066 --> 00:23:58,870
{\an8}Porque não violava
as políticas da plataforma.
481
00:23:59,337 --> 00:24:03,175
Ela pressionou a empresa
para que apagassem?
482
00:24:03,608 --> 00:24:06,011
Ela não ficou feliz.
483
00:24:06,077 --> 00:24:07,212
Isso é um sim?
484
00:24:07,279 --> 00:24:11,950
Sim, e danificou a relação
que a empresa tinha com ela.
485
00:24:12,484 --> 00:24:16,621
Certo, deixando de lado que não sei
deixar um vídeo mais lento
486
00:24:16,688 --> 00:24:18,423
para envergonhar uma pessoa
487
00:24:18,490 --> 00:24:20,802
que diz muitas coisas vergonhosas
em uma velocidade normal.
488
00:24:20,826 --> 00:24:23,695
Mas eu meio que concordo com o Facebook.
489
00:24:23,762 --> 00:24:27,599
"Isso irrita a Nancy Pelosi?"
não é uma métrica válida
490
00:24:27,666 --> 00:24:29,468
para apagar esse vídeo.
491
00:24:29,534 --> 00:24:33,205
E olhem, eu não digo que o Facebook
sempre toma decisões certas.
492
00:24:33,271 --> 00:24:36,408
Como eu falei, nenhuma empresa
deste tamanho conseguiria.
493
00:24:37,042 --> 00:24:40,445
Mas ele desenvolveu sistemas
que ele diz que funcionam bem.
494
00:24:40,512 --> 00:24:42,547
Eles já se gabaram
que quando as pessoas viam
495
00:24:42,614 --> 00:24:43,814
que os verificadores indicavam
496
00:24:43,849 --> 00:24:45,726
que um conteúdo era falso
ou parcialmente falso,
497
00:24:45,750 --> 00:24:48,353
eles não clicavam
em quase 95% das vezes.
498
00:24:48,420 --> 00:24:52,691
Em relatório recente, indicaram
que em ações contra discurso de ódio,
499
00:24:52,757 --> 00:24:56,561
o sistema funcionou em 95,3% das vezes,
500
00:24:56,628 --> 00:24:59,331
ou seja, os usuários precisariam
informar pouca coisa.
501
00:24:59,397 --> 00:25:02,601
Agora, claro, algumas ferramentas
estão sendo diluídas,
502
00:25:02,667 --> 00:25:05,237
e outras estão sendo
totalmente desligadas.
503
00:25:05,303 --> 00:25:09,941
E chegamos à pergunta: Por quê?
Por que estão fazendo isso?
504
00:25:10,008 --> 00:25:14,746
Algumas coisas aconteceram em cinco anos
e nos trouxeram até aqui.
505
00:25:14,813 --> 00:25:18,917
Uma, conservadores dizendo que moderação
normal de conteúdo
506
00:25:18,984 --> 00:25:20,485
é uma perseguição política:
507
00:25:20,886 --> 00:25:23,221
{\an8}As empresas de tecnologia
estão atrás dos conservadores.
508
00:25:23,288 --> 00:25:25,657
{\an8}Não é uma suspeita ou palpite,
é um fato.
509
00:25:25,724 --> 00:25:29,594
{\an8}Vemos as empresas de tecnologia
nos censurando.
510
00:25:29,661 --> 00:25:32,264
{\an8}O povo dos EUA está sendo censurado.
511
00:25:32,330 --> 00:25:34,199
{\an8}Estão censurando os conservadores.
512
00:25:34,266 --> 00:25:38,203
{\an8}A informação que chega ao povo
513
00:25:38,270 --> 00:25:39,571
{\an8}está sendo censurada.
514
00:25:39,638 --> 00:25:40,939
{\an8}É simples assim.
515
00:25:41,239 --> 00:25:44,876
Obviamente é tudo mentira,
mas sendo justo, Devin Nunes
516
00:25:44,943 --> 00:25:46,478
entende bem de censura.
517
00:25:46,545 --> 00:25:49,180
Ele já abriu um processo de $250 milhões
518
00:25:49,247 --> 00:25:51,683
contra contas do Twitter
que tiravam sarro dele.
519
00:25:51,750 --> 00:25:54,686
Incluindo uma que fingia ser
a vaca de Nunes.
520
00:25:55,120 --> 00:25:58,990
Ele processou uma vaca falsa do Twitter
porque foi malvada com ele.
521
00:25:59,057 --> 00:26:03,428
E a ACLU publicou essa declaração real,
dizendo: "A vaca de Devin Nunes
522
00:26:03,795 --> 00:26:07,232
tem o direito pela primeira emenda
a chamar o deputado Nunes
523
00:26:07,299 --> 00:26:08,633
de 'merda de vaca traidora'".
524
00:26:09,000 --> 00:26:13,071
Nós vivemos mesmo
na linha temporal mais imbecil.
525
00:26:14,172 --> 00:26:18,376
A questão é que conservadores
se queixam de censura há anos,
526
00:26:18,443 --> 00:26:21,146
mas as provas deles são muito fracas.
527
00:26:21,546 --> 00:26:26,151
Se as postagens deles são marcadas
mais vezes, é porque conservadores
528
00:26:26,217 --> 00:26:31,323
tendem a espalhar mais desinformação
política, segundo vários estudos.
529
00:26:31,389 --> 00:26:36,061
Mas mesmo se você ache
que as plataformas queiram censurá-los,
530
00:26:36,127 --> 00:26:38,463
estão fazendo um péssimo trabalho.
531
00:26:38,530 --> 00:26:40,966
Vários dos perfis mais vistos
no Facebook são de direita,
532
00:26:41,032 --> 00:26:45,203
e temos três vezes mais influenciadores
de notícias abertamente conservadores
533
00:26:45,270 --> 00:26:47,205
do que liberais no Facebook.
534
00:26:47,272 --> 00:26:50,508
Ainda assim, os conservadores
atacaram com toda a força
535
00:26:50,575 --> 00:26:55,013
a ideia de moderação de conteúdo,
e sempre citam um exemplo em particular,
536
00:26:55,080 --> 00:26:56,514
explicado aqui por Jeanine Pirro:
537
00:26:57,215 --> 00:27:00,318
{\an8}Quem suprimiu a liberdade de expressão
nas eleições de 2020?
538
00:27:00,385 --> 00:27:03,488
{\an8}O Facebook, por não permitir
que as pessoas falassem
539
00:27:03,555 --> 00:27:06,625
{\an8}nem que a imprensa falasse
sobre o computador de Hunter Biden.
540
00:27:07,125 --> 00:27:10,028
É, a porra do computador
de Hunter Biden.
541
00:27:11,229 --> 00:27:13,207
É uma notícia que as empresas
de tecnologia censuraram,
542
00:27:13,231 --> 00:27:15,400
por isso você nunca ouviu falar.
543
00:27:15,900 --> 00:27:19,504
E temo que vale a pena lembrar
dos detalhes da história,
544
00:27:19,571 --> 00:27:23,041
as pessoas em geral podem pensar
sobre uma enganação russa,
545
00:27:23,108 --> 00:27:25,310
ou provas contundentes
da corrupção de Biden,
546
00:27:25,377 --> 00:27:27,312
mas a verdade é que não era isso.
547
00:27:27,712 --> 00:27:31,349
Em resumo, em 2020,
enquanto Trump era presidente,
548
00:27:31,416 --> 00:27:33,418
as redes sociais foram avisadas pelo FBI
549
00:27:33,485 --> 00:27:35,954
sobre possíveis operações
de hackers antes das eleições.
550
00:27:36,021 --> 00:27:38,221
Depois, em outubro, o New York Post
publicou uma notícia
551
00:27:38,256 --> 00:27:41,092
baseada em arquivos de um computador
supostamente de Hunter Biden,
552
00:27:41,159 --> 00:27:43,962
que haviam recebido de Steve Bannon
e Rudy Giuliani.
553
00:27:44,262 --> 00:27:46,431
O Facebook e o Twitter foram cautelosos.
554
00:27:46,498 --> 00:27:49,567
Twitter por um momento não permitiu
a postagem de vazamentos da notícia,
555
00:27:49,634 --> 00:27:51,979
e o Facebook permitiu que a história
fosse vista e compartilhada,
556
00:27:52,003 --> 00:27:56,174
mas limitou o alcance do artigo,
e depois removeu o limite.
557
00:27:56,441 --> 00:28:01,146
No fim, se soube que os arquivos
do computador eram legítimos,
558
00:28:01,212 --> 00:28:03,048
mas também nada indicava
559
00:28:03,114 --> 00:28:05,984
uma conduta ilegal ou antiética
de Joe Biden.
560
00:28:06,051 --> 00:28:10,522
Então, limitar a história do computador
foi um erro dessas empresas?
561
00:28:10,588 --> 00:28:12,257
Vendo em retrospecto, sim.
562
00:28:12,891 --> 00:28:15,527
A notícia era reveladora ou importante?
563
00:28:15,927 --> 00:28:16,995
Não.
564
00:28:17,295 --> 00:28:19,507
As ações do Facebook impediram
que as pessoas soubessem da notícia
565
00:28:19,531 --> 00:28:20,799
antes das eleições?
566
00:28:21,099 --> 00:28:22,333
De novo, não.
567
00:28:22,400 --> 00:28:24,936
Mesmo quando o Facebook
limitou o compartilhamento,
568
00:28:25,003 --> 00:28:27,872
o artigo teve 54 milhões
de visualizações no site.
569
00:28:28,239 --> 00:28:31,776
Se eles tentaram limitar o alcance,
eles conseguiram limitar quem viu
570
00:28:31,843 --> 00:28:35,413
ao mesmo número de pessoas que viram
a porra do final de Friends.
571
00:28:36,614 --> 00:28:40,652
Mas essa decisão levou a direita
a gritar muito com Mark Zuckerberg.
572
00:28:40,719 --> 00:28:44,522
E, na mesma época, a Casa Branca
de Biden também gritava com ele.
573
00:28:44,589 --> 00:28:47,125
Porque conforme as vacinas
contra COVID eram lançadas,
574
00:28:47,192 --> 00:28:49,861
muitas informações falsas
circulavam no Facebook.
575
00:28:49,928 --> 00:28:52,097
Biden disse em um momento,
falando sobre o Facebook,
576
00:28:52,163 --> 00:28:53,631
que estavam matando pessoas.
577
00:28:53,698 --> 00:28:56,601
E ele se retratou rapidamente,
mas segundo Zuckerberg,
578
00:28:56,668 --> 00:29:00,305
a pressão da Casa Branca para remover
qualquer crítica às vacinas na época
579
00:29:00,371 --> 00:29:01,439
era gigantesca:
580
00:29:01,773 --> 00:29:05,610
Basicamente, as pessoas do governo Biden
581
00:29:05,677 --> 00:29:09,647
ligavam para nossa equipe,
gritavam e xingavam.
582
00:29:09,714 --> 00:29:12,984
Biden deu uma declaração
em dado momento.
583
00:29:13,051 --> 00:29:15,353
Não lembro se era
uma coletiva de imprensa.
584
00:29:15,420 --> 00:29:17,388
Mas ele disse: "Estão matando pessoas".
585
00:29:17,455 --> 00:29:18,923
E...
586
00:29:19,758 --> 00:29:20,959
E...
587
00:29:21,993 --> 00:29:26,131
Não sei, depois muitas agências
e instituições do governo
588
00:29:26,197 --> 00:29:29,334
começaram a investigar a nossa empresa.
589
00:29:29,400 --> 00:29:30,902
Foi brutal. Foi brutal.
590
00:29:31,636 --> 00:29:34,873
Ele está claramente dizendo
o que Joe Rogan e o público dele querem.
591
00:29:34,939 --> 00:29:38,810
Apesar de que muitos devem estar
distraídos pela roupa dele.
592
00:29:38,877 --> 00:29:40,845
Alguns comentários no vídeo dizem:
593
00:29:40,912 --> 00:29:43,081
"O mano se veste
igual a um policial disfarçado",
594
00:29:43,882 --> 00:29:45,450
"achei que era Lil Dicky",
595
00:29:45,517 --> 00:29:48,253
e "por que tem um bilionário
de 40 anos vestido
596
00:29:48,319 --> 00:29:50,131
que nem o cara de 25 anos
que me vende cogumelos?"
597
00:29:50,155 --> 00:29:55,059
Mas vemos que ele insinua
que o governo lançou investigações
598
00:29:55,126 --> 00:29:57,929
para punir o Facebook por permitir
conteúdo anti-vacina.
599
00:29:57,996 --> 00:30:01,366
É verdade que o governo
investigou muito o Facebook
600
00:30:01,432 --> 00:30:02,600
nos últimos anos.
601
00:30:02,667 --> 00:30:06,171
Mas nenhuma investigação
bate com o relato de Zuckerberg.
602
00:30:06,237 --> 00:30:10,008
Uma, o processo antitruste,
começou no primeiro mandato de Trump.
603
00:30:10,341 --> 00:30:13,344
Outras, como a investigação
de sistemas de pagamento,
604
00:30:13,411 --> 00:30:15,013
envolvem várias outras empresas.
605
00:30:15,079 --> 00:30:17,482
E muito do escrutínio recente
que a empresa passou
606
00:30:17,549 --> 00:30:20,819
se deve a um informante
que lançou vários documentos
607
00:30:20,885 --> 00:30:22,487
conhecidos como "Arquivos Facebook".
608
00:30:22,554 --> 00:30:25,924
Quanto à alegação de que o governo
gritava e xingava contra o Facebook,
609
00:30:25,990 --> 00:30:27,625
eles podem fazer isso.
610
00:30:28,159 --> 00:30:30,862
Quando falamos com agências do governo
para checar um fato,
611
00:30:30,929 --> 00:30:32,497
eles podem nos mandar à merda.
612
00:30:33,164 --> 00:30:35,767
Porque xingamentos
não violam seus direitos.
613
00:30:35,834 --> 00:30:39,370
Para saber mais, leiam
A Constituição para completos imbecis.
614
00:30:40,205 --> 00:30:43,808
O que eles não podem fazer
é obrigar você a fazer alguma coisa.
615
00:30:44,175 --> 00:30:48,479
E na entrevista, Zuckerberg descreve
a resposta às demandas como:
616
00:30:48,546 --> 00:30:51,349
"Eu falava: Não vamos fazer isso."
617
00:30:51,983 --> 00:30:56,120
Exatamente! Você disse que não.
Como é o seu direito.
618
00:30:56,187 --> 00:30:57,856
E não acreditem só em mim.
619
00:30:58,156 --> 00:31:00,859
Esse tipo de reclamação
chegou até os tribunais,
620
00:31:00,925 --> 00:31:03,561
quando dois procuradores Republicanos
tentaram processar o governo
621
00:31:03,628 --> 00:31:06,197
por pressionar plataformas
como o Facebook
622
00:31:06,264 --> 00:31:08,275
para censurar discursos,
eles perderam em uma decisão
623
00:31:08,299 --> 00:31:10,869
da Suprema Corte
de seis votos contra três
624
00:31:10,935 --> 00:31:12,604
redigida por Amy Coney Barrett.
625
00:31:13,004 --> 00:31:15,139
Ela disse que os reclamantes
não conseguiam demonstrar
626
00:31:15,206 --> 00:31:17,876
que o conteúdo foi restringido
por pressão do governo.
627
00:31:18,276 --> 00:31:22,146
E olhem, eu entendo que Zuckerberg
fique magoado
628
00:31:22,213 --> 00:31:24,191
porque o presidente falou
que a empresa dele mata pessoas.
629
00:31:24,215 --> 00:31:25,917
E eu entendo que ele se canse
630
00:31:25,984 --> 00:31:27,952
de ouvir gritos dos Republicanos
por fazer muito
631
00:31:28,019 --> 00:31:29,988
e dos Democratas por fazer pouco.
632
00:31:30,054 --> 00:31:32,790
De certa forma, eu até entendo
que uma empresa
633
00:31:32,857 --> 00:31:34,826
queira estar bem
com quem estiver no poder.
634
00:31:34,893 --> 00:31:38,630
Mas tem um fator a mais
que parece relevante nesse caso
635
00:31:38,696 --> 00:31:40,698
e é importante de mencionar:
636
00:31:41,432 --> 00:31:43,534
{\an8}É uma evolução política para a Meta.
637
00:31:43,601 --> 00:31:46,504
{\an8}Há quatro anos o Facebook suspendeu
a conta de Trump
638
00:31:46,571 --> 00:31:48,840
{\an8}depois do 6 de janeiro,
e apenas alguns meses
639
00:31:48,907 --> 00:31:52,710
{\an8}depois do presidente acusar Zuckerberg
de conspirar contra ele em 2020,
640
00:31:52,777 --> 00:31:55,713
{\an8}pedindo prisão perpétua
caso Zuckerberg repetisse isso.
641
00:31:56,014 --> 00:31:59,951
{\an8}Mas após a vitória de Trump,
Zuckerberg viajou para Mar-a-Lago,
642
00:32:00,084 --> 00:32:03,288
{\an8}a empresa dele doou $1 milhão
para a inauguração de Trump,
643
00:32:03,354 --> 00:32:06,624
{\an8}e agora um aliado próximo de Trump,
o presidente do UFC, Dana White,
644
00:32:06,691 --> 00:32:08,092
{\an8}se junta ao conselho da Meta.
645
00:32:08,159 --> 00:32:11,129
{\an8}Meta, Facebook,
acho que eles avançaram muito.
646
00:32:11,195 --> 00:32:14,432
{\an8}Acha que é uma resposta às ameaças
que você fez contra ele no passado?
647
00:32:14,499 --> 00:32:15,533
{\an8}Provavelmente.
648
00:32:15,600 --> 00:32:16,601
É!
649
00:32:18,269 --> 00:32:19,470
É, provavelmente.
650
00:32:20,672 --> 00:32:23,141
Trump ameaçou Zuckerberg
com prisão perpétua.
651
00:32:23,207 --> 00:32:25,920
Depois, Zuckerberg mudou de ideia,
deu dinheiro, contratou o amigo dele
652
00:32:25,944 --> 00:32:27,946
e mudou a direção da empresa.
653
00:32:28,012 --> 00:32:30,882
Não precisa ser um gênio
para tirar conclusões.
654
00:32:31,182 --> 00:32:33,284
Na verdade, não precisamos de um.
655
00:32:34,719 --> 00:32:36,921
E não acaba aí.
656
00:32:37,455 --> 00:32:41,759
A Meta também pagou $25 milhões
para acabar com um processo fajuto
657
00:32:41,826 --> 00:32:43,828
que Trump abriu
por ser banido do Facebook.
658
00:32:43,895 --> 00:32:45,396
Muitos especialistas concordam
659
00:32:45,463 --> 00:32:47,465
que a empresa estava no seu direito.
660
00:32:47,532 --> 00:32:50,201
E a essa altura, Trump parece
estar fazendo exatamente
661
00:32:50,268 --> 00:32:53,838
o que Zuckerberg dizia
que o governo Biden fazia:
662
00:32:53,905 --> 00:32:57,608
Se aproveitando do poder do Estado
para pressionar redes sociais
663
00:32:57,675 --> 00:32:58,843
a fazerem o que ele quer.
664
00:32:58,910 --> 00:33:01,012
E Zuckerberg parece acatar.
665
00:33:01,646 --> 00:33:05,483
E ele vai dizer que essas mudanças
não são por pressão política,
666
00:33:05,550 --> 00:33:08,853
mas seja como for, o Facebook
parece estar em um caminho
667
00:33:08,920 --> 00:33:12,290
para virar um esgoto de ódio
e desinformação.
668
00:33:12,357 --> 00:33:15,460
E eu sei que já parece uma descrição
de como o Facebook é hoje,
669
00:33:15,526 --> 00:33:19,163
mas vamos ver o que acontece
quando eles param mesmo de tentar.
670
00:33:19,597 --> 00:33:21,099
E o que podemos fazer?
671
00:33:21,165 --> 00:33:23,368
Existem algumas ideias ruins por aí.
672
00:33:23,434 --> 00:33:25,412
Tanto Democratas quanto Republicanos
sugeriram recentemente
673
00:33:25,436 --> 00:33:27,872
emendas à Seção 230,
674
00:33:27,939 --> 00:33:31,142
para que empresas se responsabilizem
mais pelo que é postado.
675
00:33:31,209 --> 00:33:33,311
Mas ainda não vi nenhuma proposta
676
00:33:33,378 --> 00:33:36,514
que não possa ser usada facilmente
para censura política.
677
00:33:36,881 --> 00:33:40,451
Sem dúvidas as empresas que fazem
propaganda no Facebook têm opções.
678
00:33:40,518 --> 00:33:45,156
Eu diria que deveriam considerar
se querem as propagandas delas
679
00:33:45,223 --> 00:33:48,793
ao lado de frases de ódio
que o Facebook agora aceita.
680
00:33:48,860 --> 00:33:51,295
Disney, querem o Olaf
divulgando Frozen III
681
00:33:51,362 --> 00:33:52,463
do lado dessa merda?
682
00:33:52,530 --> 00:33:53,998
Não sei, talvez queiram.
683
00:33:54,599 --> 00:33:57,602
Mas os indivíduos
possuem menos alternativas.
684
00:33:57,668 --> 00:34:01,072
Poderiam apagar suas contas da Meta,
e não estariam sozinhos.
685
00:34:01,139 --> 00:34:02,940
Em janeiro, buscas no Google
686
00:34:03,007 --> 00:34:05,777
sobre como cancelar e apagar contas
no Facebook, Instagram e Threads
687
00:34:05,843 --> 00:34:08,012
aumentaram em mais de 5000%.
688
00:34:08,546 --> 00:34:13,251
E temos alternativas menos desesperadas
para acatar as ordens de Trump.
689
00:34:13,317 --> 00:34:18,222
Mas entendo que se sua família e amigos
estão no Facebook e Instagram,
690
00:34:18,289 --> 00:34:20,158
talvez você não esteja pronto para isso.
691
00:34:20,224 --> 00:34:23,127
Só lembrem-se de ter mais cuidado
692
00:34:23,194 --> 00:34:27,465
com tudo que lerem nesses sites.
693
00:34:28,099 --> 00:34:31,569
Mas tem uma pequena forma
de ferrar com a Meta:
694
00:34:31,636 --> 00:34:34,072
Que é se tornar
menos valioso para a empresa.
695
00:34:34,138 --> 00:34:38,709
Lembrem-se que a publicidade
compõe 98% da receita da Meta,
696
00:34:38,776 --> 00:34:43,214
e um componente chave é permitir
anúncios direcionados para você.
697
00:34:43,514 --> 00:34:46,651
A Meta faz isso porque rastreia
enormes quantidades de dados
698
00:34:46,717 --> 00:34:49,687
não só do que você faz nos sites deles,
mas em toda a internet.
699
00:34:49,754 --> 00:34:52,690
E por isso eles não querem que eu diga
700
00:34:52,757 --> 00:34:56,260
que vocês podem mudar as configurações
para o Facebook e Instagram
701
00:34:56,327 --> 00:34:58,729
não poderem mais lucrar tanto
com seus dados.
702
00:34:58,796 --> 00:35:01,799
Se quiserem um guia passo a passo
de como fazer isso,
703
00:35:01,866 --> 00:35:04,936
{\an8}visitem:
JohnOliverWantsYourRatErotica.com
704
00:35:06,137 --> 00:35:07,338
{\an8}Enquanto isso,
705
00:35:07,672 --> 00:35:12,210
se o Facebook continuar nos submetendo
a uma onda crescente
706
00:35:12,276 --> 00:35:17,248
de insultos, mentiras e desinformação,
poderiam ao menos dizer a verdade
707
00:35:17,882 --> 00:35:18,983
na mensagem deles:
708
00:35:22,320 --> 00:35:23,387
Aqui no Facebook,
709
00:35:23,454 --> 00:35:26,290
é hora de voltar às nossas raízes
de liberdade de expressão.
710
00:35:26,591 --> 00:35:28,960
Estamos completamente comprometidos
711
00:35:29,026 --> 00:35:31,562
em fazer o Facebook seguro e inclusivo
712
00:35:31,629 --> 00:35:32,763
para todo mundo.
713
00:35:32,830 --> 00:35:36,267
Ao longo dos anos, demos nosso melhor
para impedir o site
714
00:35:36,334 --> 00:35:39,904
de se tornar um vaso sanitário
cheio do pior da humanidade.
715
00:35:39,971 --> 00:35:43,441
Pareceu ser nossa responsabilidade,
porque criamos esse vaso sanitário.
716
00:35:44,175 --> 00:35:45,810
E ficamos muito ricos com ele.
717
00:35:45,877 --> 00:35:49,013
Mas moderar bilhões de usuários
é muito difícil.
718
00:35:49,447 --> 00:35:52,717
Dizem que, sem isso, a internet vira
só pornô e remédios para emagrecer.
719
00:35:53,017 --> 00:35:55,820
Meu Deus, quem dera
a gente só tivesse que cuidar disso.
720
00:35:56,087 --> 00:36:00,725
Tem pornô, remédio para emagrecer,
mentiras, insultos, ameaças de morte.
721
00:36:00,992 --> 00:36:02,727
Apostas, esquemas de criptomoedas.
722
00:36:02,793 --> 00:36:05,630
Aquelas fotos com um avô
estranhamente musculoso, dizendo:
723
00:36:05,696 --> 00:36:08,566
"Um truque para ficar muito sarado
aos 50 anos."
724
00:36:08,633 --> 00:36:09,700
É muita coisa.
725
00:36:09,767 --> 00:36:13,037
Por isso ficamos felizes em anunciar
nossa política para 2025
726
00:36:13,104 --> 00:36:14,438
sobre moderação de conteúdo:
727
00:36:14,872 --> 00:36:18,109
Foda-se.
728
00:36:18,176 --> 00:36:21,345
Sendo clara, todos os nossos problemas
anteriores continuem.
729
00:36:21,412 --> 00:36:24,448
Mas mudando estrategicamente
para o "foda-se",
730
00:36:24,515 --> 00:36:27,485
vemos que agora o problema é seu.
731
00:36:28,119 --> 00:36:30,988
É tão bom não ter que se preocupar
com as nuances, como
732
00:36:31,055 --> 00:36:34,792
"imigrantes de merda" ser aceitável,
mas "merda de imigrantes" não.
733
00:36:34,859 --> 00:36:36,060
Não, é o contrário.
734
00:36:36,127 --> 00:36:37,161
Tem certeza?
735
00:36:37,228 --> 00:36:40,431
Eu acho... espera, "merda"
é o adjetivo ou o objeto?
736
00:36:40,498 --> 00:36:43,334
E se falarem
"volte para seu país, imigrante"?
737
00:36:43,401 --> 00:36:44,702
Isso com certeza pode.
738
00:36:44,769 --> 00:36:45,803
Certo!
739
00:36:45,870 --> 00:36:47,905
Bem, não pode, mas...
740
00:36:48,206 --> 00:36:50,308
Sabe como seus parentes mais velhos
às vezes falam
741
00:36:50,374 --> 00:36:53,978
que receberam mensagem de um príncipe
da África que vai mandar milhões
742
00:36:54,045 --> 00:36:55,613
se derem o número dos documentos deles?
743
00:36:55,680 --> 00:36:57,615
Nós falávamos: "Não, vovó, é falso."
744
00:36:57,682 --> 00:37:02,520
Agora, faça isso com todos os parentes,
com todas as notícias, para sempre.
745
00:37:02,587 --> 00:37:03,621
Foda-se.
746
00:37:03,688 --> 00:37:06,290
Além disso, qual é a pior coisa
que poderia acontecer?
747
00:37:06,357 --> 00:37:09,360
Um genocídio?
Nós meio que contribuímos com um.
748
00:37:09,427 --> 00:37:10,928
Em Myanmar, lembra?
749
00:37:11,229 --> 00:37:13,364
Quais as chances de acontecer outro?
750
00:37:13,431 --> 00:37:14,599
Não fazemos ideia.
751
00:37:14,665 --> 00:37:16,000
Demitimos quem sabia.
752
00:37:16,067 --> 00:37:18,436
Eu fico feliz que meu bebê
vai crescer em um mundo
753
00:37:18,502 --> 00:37:20,671
onde ele possa insultar quem quiser.
754
00:37:21,239 --> 00:37:25,743
Ou ela quiser. Ou elu...
não, verdade. São só dois.
755
00:37:25,810 --> 00:37:28,479
O Facebook decidiu
que são só duas opções.
756
00:37:28,546 --> 00:37:29,580
Ouviu bem?
757
00:37:29,647 --> 00:37:31,782
Foda-se.
758
00:37:31,849 --> 00:37:32,883
Foda-se!
759
00:37:32,950 --> 00:37:33,985
Foda-se.
760
00:37:34,051 --> 00:37:37,555
E para quem diz que só estamos
obedecendo ao presidente Trump
761
00:37:37,622 --> 00:37:40,992
para evitar que sejamos presos,
vou dizer forçadamente
762
00:37:41,259 --> 00:37:42,560
que nada a ver...
763
00:37:42,627 --> 00:37:45,896
Donald Trump não nos dá ordens.
A menos que ele diga que sim.
764
00:37:46,530 --> 00:37:47,565
Ele disse?
765
00:37:47,632 --> 00:37:49,367
Saibam que, aconteça o que acontecer,
766
00:37:49,433 --> 00:37:52,270
nós no Facebook nos comprometemos
com nossos valores base.
767
00:37:52,536 --> 00:37:54,605
Os mesmos que sempre tivemos:
768
00:37:54,905 --> 00:37:56,007
Liberdade de expressão.
769
00:37:56,073 --> 00:37:57,441
Evitar responsabilidades.
770
00:37:57,742 --> 00:38:00,344
E fazer ranking de universitárias
por quão gostosas elas são.
771
00:38:01,145 --> 00:38:02,747
Não? Voltei muito?
772
00:38:02,813 --> 00:38:03,881
Esqueçam.
773
00:38:04,148 --> 00:38:08,619
Facebook, é como a praça da sua cidade,
cheia de espiões e robôs russos,
774
00:38:08,686 --> 00:38:11,098
e adolescentes se passando por adultos,
e adultos se passando por adolescentes
775
00:38:11,122 --> 00:38:13,124
que se juntam o tempo todo
para dizer o que querem,
776
00:38:13,190 --> 00:38:16,193
incluindo teorias da conspiração
e as boas ideias que os nazistas tinham.
777
00:38:16,260 --> 00:38:18,329
E agora você é o prefeito e a polícia
da sua praça.
778
00:38:18,396 --> 00:38:20,298
FODA-SE
779
00:38:21,098 --> 00:38:22,876
Este foi nosso programa.
Muito obrigado pela audiência.
780
00:38:22,900 --> 00:38:24,460
Nos vemos na semana que vem. Boa noite.
781
00:38:25,703 --> 00:38:31,142
{\an8}- Foda-se.
- Foda-se.
782
00:38:32,176 --> 00:38:33,344
{\an8}Foda-se.
783
00:38:36,147 --> 00:38:37,148
Foda-se.
64623
Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.