1
00:00:35,838 --> 00:00:43,640
estamos à beira de um mundo de

1
00:00:39,689 --> 00:00:47,009
cada vez mais intenso sofisticado

1
00:00:43,640 --> 00:00:49,439
tecnologia de inteligência artificial é

1
00:00:47,009 --> 00:00:51,298
evoluindo muito mais rápido do que a nossa sociedade

1
00:00:49,439 --> 00:00:53,750
tem a capacidade de nos proteger como

1
00:00:51,298 --> 00:00:53,750
cidadãos

1
00:00:57,079 --> 00:01:04,250
[Música]

1
00:01:01,990 --> 00:01:07,189
você tem uma inteligência em rede que

1
00:01:04,250 --> 00:01:14,629
nos observa sabe tudo sobre nós e

1
00:01:07,189 --> 00:01:17,299
começa a tentar nos mudar a tecnologia é

1
00:01:14,629 --> 00:01:21,769
nunca é bom ou ruim é o que fazemos com

1
00:01:17,299 --> 00:01:22,969
a tecnologia eventualmente milhões de

1
00:01:21,769 --> 00:01:24,920
as pessoas vão ser expulsas

1
00:01:22,969 --> 00:01:26,939
empregos porque suas habilidades vão

1
00:01:24,920 --> 00:01:35,019
ser obsoleto

1
00:01:26,939 --> 00:01:37,329
desemprego, independentemente de<font color="

1
00:01:35,019 --> 00:01:40,039
com medo ou sem medo a mudança é

1
00:01:37,329 --> 00:01:45,219
chegando e ninguém pode impedi-lo

1
00:01:40,040 --> 00:01:47,380
[Música]

1
00:01:45,219 --> 00:01:49,689
investimos enormes quantias de dinheiro e

1
00:01:47,379 --> 00:01:52,390
então é lógico que os militares

1
00:01:49,689 --> 00:01:55,149
com seus próprios desejos vão começar

1
00:01:52,390 --> 00:01:57,370
usar essas tecnologias de forma autônoma

1
00:01:55,150 --> 00:02:02,430
sistemas de armas levariam a uma crise global

1
00:01:57,370 --> 00:02:02,430
corrida armamentista para rivalizar com a era nuclear

1
00:02:02,909 --> 00:02:08,360
sabemos qual é a resposta, eles vão

1
00:02:05,159 --> 00:02:08,360
eventualmente estará nos matando

1
00:02:11,189 --> 00:02:17,829
esses saltos tecnológicos vão

1
00:02:13,629 --> 00:02:19,129
produzir milagres incríveis e incríveis

1
00:02:17,830 --> 00:02:24,030
<cor da fonte="

1
00:02:19,129 --> 00:02:24,030
[Música]

1
00:02:24,590 --> 00:02:32,280
nós criamos isso, então eu acho que enquanto nos movemos

1
00:02:29,370 --> 00:02:36,060
adiante esta inteligência conterá

1
00:02:32,280 --> 00:02:40,379
partes de nós, mas acho que a questão é

1
00:02:36,060 --> 00:02:43,550
conterá as peças boas ou o

1
00:02:40,379 --> 00:02:43,549
partes ruins

1
00:03:01,509 --> 00:03:04,649
[Música]

1
00:03:05,068 --> 00:03:09,009
os sobreviventes chamaram o julgamento da guerra

1
00:03:08,348 --> 00:03:11,348
Dia

1
00:03:09,009 --> 00:03:13,378
eles me disseram para enfrentar um novo

1
00:03:11,348 --> 00:03:13,378
pesadelo

1
00:03:13,770 --> 00:03:19,560
contra as máquinas, acho que nós

1
00:03:16,919 --> 00:03:21,659
completamente nós, eu acho

1
00:03:19,560 --> 00:03:25,289
Hollywood conseguiu inocular o

1
00:03:21,659 --> 00:03:27,780
público em geral contra esta questão o

1
00:03:25,289 --> 00:03:30,810
idéia de máquinas que assumirão o controle

1
00:03:27,780 --> 00:03:35,939
<cor da fonte="

1
00:03:30,810 --> 00:03:41,250
ah, me desculpe, Dave, infelizmente não posso fazer

1
00:03:35,939 --> 00:03:43,020
que já gritamos lobo muitas vezes

1
00:03:41,250 --> 00:03:44,699
o público parou de pagar

1
00:03:43,020 --> 00:03:45,719
atenção porque parece ciência

1
00:03:44,699 --> 00:03:47,579
ficção, mesmo sentado aqui falando sobre

1
00:03:45,719 --> 00:03:50,189
agora parece um pouco bobo

1
00:03:47,580 --> 00:03:53,370
um pouco como, ah, isso é um artefato

1
00:03:50,189 --> 00:03:55,859
de algum filme cheeseball, o grande

1
00:03:53,370 --> 00:04:00,420
passa o tempo todo pensando no mundo

1
00:03:55,860 --> 00:04:02,190
<cor da fonte="

1
00:04:00,419 --> 00:04:04,250
o público está prestes a ser pego de surpresa por

1
00:04:02,189 --> 00:04:04,250
isso

1
00:04:04,870 --> 00:04:07,960
[Música]

1
00:04:10,879 --> 00:04:17,279
tão decididos quanto os indivíduos, somos

1
00:04:14,699 --> 00:04:21,930
cada vez mais rodeado por uma máquina

1
00:04:17,279 --> 00:04:24,299
inteligência, carregamos este dispositivo de bolso

1
00:04:21,930 --> 00:04:26,670
na palma da nossa mão que usamos para

1
00:04:24,300 --> 00:04:29,340
tomar uma impressionante variedade de decisões de vida

1
00:04:26,670 --> 00:04:33,140
agora auxiliado por um conjunto de distantes

1
00:04:29,339 --> 00:04:33,139
algoritmos que não entendemos

1
00:04:34,730 --> 00:04:38,759
eles já estão bastante cansados do

1
00:04:37,199 --> 00:04:43,620
ideia de que podemos falar com nosso telefone e

1
00:04:38,759 --> 00:04:45,469
que principalmente nos entende cinco anos

1
00:04:43,620 --> 00:04:49,050
<cor da fonte="

1
00:04:45,470 --> 00:04:51,510
máquinas robóticas que veem e falam e

1
00:04:49,050 --> 00:04:53,490
ouça tudo o que é real agora e estes

1
00:04:51,509 --> 00:04:57,779
tecnologias vão fundamentalmente

1
00:04:53,490 --> 00:05:00,439
mudar nossa sociedade agora temos isso

1
00:04:57,779 --> 00:05:03,209
grande movimento dos carros autônomos

1
00:05:00,439 --> 00:05:07,139
dirigir um carro de forma autônoma pode se mover

1
00:05:03,209 --> 00:05:08,819
a vida das pessoas em um lugar melhor que eu

1
00:05:07,139 --> 00:05:11,219
perdeu vários membros da família

1
00:05:08,819 --> 00:05:13,379
incluindo minha mãe minha mãe e

1
00:05:11,220 --> 00:05:16,620
cunhada e seus filhos - eu não

1
00:05:13,379 --> 00:05:19,500
<cor da fonte="

1
00:05:16,620 --> 00:05:22,590
quase elimina acidentes de carro com

1
00:05:19,500 --> 00:05:24,149
automação 30.000 vidas somente nos EUA

1
00:05:22,589 --> 00:05:26,099
cerca de um milhão em todo o mundo por

1
00:05:24,149 --> 00:05:29,009
ano

1
00:05:26,100 --> 00:05:31,230
nos cuidados de saúde, os indicadores precoces são os

1
00:05:29,009 --> 00:05:32,399
nome do jogo naquele espaço, então é isso

1
00:05:31,230 --> 00:05:35,670
outro lugar onde pode salvar

1
00:05:32,399 --> 00:05:38,399
a vida de alguém aqui no peito

1
00:05:35,670 --> 00:05:41,699
Cancer Center todas as coisas que o

1
00:05:38,399 --> 00:05:44,209
cérebro do radiologista faz em dois minutos

1
00:05:41,699 --> 00:05:46,740
bônus de computador instantaneamente um

1
00:05:44,209 --> 00:05:49,409
computador olhou para 1 milhão

1
00:05:46,740 --> 00:05:51,780
<cor da fonte="

1
00:05:49,410 --> 00:05:56,720
aplica-o a esta imagem instantaneamente

1
00:05:51,779 --> 00:05:59,219
então a aplicação médica é profunda

1
00:05:56,720 --> 00:06:00,660
outra área realmente interessante que estamos

1
00:05:59,220 --> 00:06:03,470
vendo muito desenvolvimento e está

1
00:06:00,660 --> 00:06:06,990
realmente entendendo nosso código genético

1
00:06:03,470 --> 00:06:10,370
e usar isso para diagnosticar doenças

1
00:06:06,990 --> 00:06:10,370
e criar tratamentos personalizados

1
00:06:12,180 --> 00:06:16,350
a principal aplicação de todos estes

1
00:06:14,370 --> 00:06:19,050
máquinas será estender nossa própria

1
00:06:16,350 --> 00:06:21,120
inteligência que conseguimos fazer

1
00:06:19,050 --> 00:06:24,329
nós mesmos mais inteligentes e será melhor

1
00:06:21,120 --> 00:06:26,069
<cor da fonte="

1
00:06:24,329 --> 00:06:29,099
realmente entenderemos o envelhecimento seremos

1
00:06:26,069 --> 00:06:30,870
capaz de pará-lo, realmente não há limite

1
00:06:29,100 --> 00:06:33,260
ao que máquinas inteligentes podem fazer por

1
00:06:30,870 --> 00:06:33,259
a raça humana

1
00:06:36,300 --> 00:06:43,629
como poderia uma máquina mais inteligente não ser uma

1
00:06:39,160 --> 00:06:46,180
máquina melhor, é difícil dizer exatamente

1
00:06:43,629 --> 00:06:48,930
quando comecei a pensar que isso era um

1
00:06:46,180 --> 00:06:48,930
um pouco ingênuo

1
00:06:49,189 --> 00:07:00,430
[Música]

1
00:06:57,060 --> 00:07:02,019
Stuart Russell ele é basicamente um Deus em

1
00:07:00,430 --> 00:07:03,788
o campo da inteligência artificial ele

1
00:07:02,019 --> 00:07:06,188
escreveu o livro que quase todos

1
00:07:03,788 --> 00:07:08,620
Usos universitários eu costumava dizer que é o

1
00:07:06,189 --> 00:07:11,360
<cor da fonte="

1
00:07:08,620 --> 00:07:14,050
é o PDF que roubou com mais frequência

1
00:07:11,360 --> 00:07:17,060
[Música]

1
00:07:14,050 --> 00:07:19,759
inteligência artificial é sobre fazer

1
00:07:17,060 --> 00:07:21,680
computador inteligente e do ponto de

1
00:07:19,759 --> 00:07:23,569
visão do público o que conta como IA é

1
00:07:21,680 --> 00:07:25,430
apenas algo que é surpreendentemente

1
00:07:23,569 --> 00:07:28,509
inteligente comparado ao que pensávamos

1
00:07:25,430 --> 00:07:33,019
computadores normalmente seriam capazes de fazer

1
00:07:28,509 --> 00:07:35,599
IA é um campo de pesquisa para tentar

1
00:07:33,019 --> 00:07:40,099
basicamente simular todos os tipos de seres humanos

1
00:07:35,600 --> 00:07:41,600
capacidades, estamos na era da IA Silício

1
00:07:40,100 --> 00:07:44,390
<cor da fonte="

1
00:07:41,600 --> 00:07:45,950
coisa brilhante e brilhante, era social

1
00:07:44,389 --> 00:07:48,110
networking nas mídias sociais nos últimos

1
00:07:45,949 --> 00:07:50,899
década e está bem claro que a parte mudou

1
00:07:48,110 --> 00:07:53,000
virou e começa com a máquina

1
00:07:50,899 --> 00:07:55,609
aprendendo quando olhamos para trás

1
00:07:53,000 --> 00:07:57,439
momento qual foi a primeira IA não é

1
00:07:55,610 --> 00:07:59,330
sexy e não é o que consideramos

1
00:07:57,439 --> 00:08:02,600
os filmes, mas você seria um ótimo caso

1
00:07:59,329 --> 00:08:06,409
que o Google criou um mecanismo de busca, mas

1
00:08:02,600 --> 00:08:08,030
<cor da fonte="

1
00:08:06,410 --> 00:08:10,010
pergunta que eles queriam e obter a resposta

1
00:08:08,029 --> 00:08:12,769
eles precisam disso, a maioria das pessoas não sabe

1
00:08:10,009 --> 00:08:14,839
que o que o Google está fazendo é na verdade uma

1
00:08:12,769 --> 00:08:16,939
forma de inteligência artificial que eles

1
00:08:14,839 --> 00:08:19,669
é só ir lá que eles digitam alguma coisa

1
00:08:16,939 --> 00:08:21,879
O Google dá a eles a resposta para cada um

1
00:08:19,670 --> 00:08:24,110
pesquise nós treinamos para ser melhor

1
00:08:21,879 --> 00:08:25,759
às vezes digitamos na busca e

1
00:08:24,110 --> 00:08:29,300
nos diz a resposta o que você terminou

1
00:08:25,759 --> 00:08:31,519
<cor da fonte="

1
00:08:29,300 --> 00:08:33,320
presidente do Cazaquistão e será apenas

1
00:08:31,519 --> 00:08:35,049
dizer que você não precisa ir ao

1
00:08:33,320 --> 00:08:38,210
Site nacional do Cazaquistão para descobrir

1
00:08:35,049 --> 00:08:40,789
não costumava ser capaz de fazer isso

1
00:08:38,210 --> 00:08:43,250
são engrenagens de inteligência artificial de

1
00:08:40,789 --> 00:08:46,069
agora, quando tentarmos entender, iremos

1
00:08:43,250 --> 00:08:48,710
diga bem, como sentimos falta disso, é um dos

1
00:08:46,070 --> 00:08:51,200
essas contradições marcantes que estamos

1
00:08:48,710 --> 00:08:53,150
enfrentando o Google e o Facebook têm

1
00:08:51,200 --> 00:08:55,970
construímos negócios nos dando como um

1
00:08:53,149 --> 00:08:58,519
sociedade<font color="

1
00:08:55,970 --> 00:09:02,330
pechincha, eles estão extraindo algo

1
00:08:58,519 --> 00:09:04,189
de nós em troca, mas não sabemos

1
00:09:02,330 --> 00:09:08,240
qual código está sendo executado do outro lado

1
00:09:04,190 --> 00:09:10,370
e por que não temos ideia de que isso acontece

1
00:09:08,240 --> 00:09:12,740
bem na questão de quanto deveríamos

1
00:09:10,370 --> 00:09:18,278
confie nessas máquinas

1
00:09:12,740 --> 00:09:21,169
Eu uso computadores literalmente para tudo

1
00:09:18,278 --> 00:09:23,870
há tantos avanços no computador

1
00:09:21,169 --> 00:09:26,449
agora e se tornou uma grande parte

1
00:09:23,870 --> 00:09:28,039
nossas vidas é simplesmente incrível que

1
00:09:26,450 --> 00:09:30,470
computador<font color="

1
00:09:28,039 --> 00:09:33,769
computador na sua bolsa, quero dizer, como

1
00:09:30,470 --> 00:09:36,170
incrível é que eu acho que a maior parte da tecnologia

1
00:09:33,769 --> 00:09:39,620
destina-se a tornar as coisas mais fáceis e

1
00:09:36,169 --> 00:09:42,559
mais simples para todos nós, então espero que eu

1
00:09:39,620 --> 00:09:45,850
apenas continua sendo o foco, acho que todo mundo

1
00:09:42,559 --> 00:09:45,849
adora seus computadores

1
00:09:52,129 --> 00:10:00,590
as pessoas não percebem que estão constantemente

1
00:09:54,769 --> 00:10:02,269
sendo negociado por máquinas onde

1
00:10:00,590 --> 00:10:04,879
esse é o preço dos produtos em seu

1
00:10:02,269 --> 00:10:07,069
Carrinho da Amazon se você pode entrar em um

1
00:10:04,879 --> 00:10:09,039
voo específico se você puder

1
00:10:07,070 --> 00:10:11,780
reservar um quarto em um hotel específico

1
00:10:09,039 --> 00:10:13,339
o que você está enfrentando é máquina

1
00:10:11,779 --> 00:10:15,829
aprendendo algoritmos que<font color="

1
00:10:13,340 --> 00:10:18,700
que uma pessoa como você está disposta a pagar

1
00:10:15,830 --> 00:10:21,829
dois centavos a mais e está mudando o preço

1
00:10:18,700 --> 00:10:21,829
[Música]

1
00:10:21,879 --> 00:10:28,179
agora o computador olha para milhões de pessoas

1
00:10:25,100 --> 00:10:31,790
simultaneamente para padrões muito sutis

1
00:10:28,179 --> 00:10:34,669
você pode pegar imagens digitais aparentemente inocentes

1
00:10:31,789 --> 00:10:37,069
pegadas, como a playlist de alguém

1
00:10:34,669 --> 00:10:40,069
Spotify ou coisas que eles compraram

1
00:10:37,070 --> 00:10:42,530
Amazon e depois usar algoritmos para

1
00:10:40,070 --> 00:10:48,890
traduzir isso em um texto muito detalhado e

1
00:10:42,529 --> 00:10:50,959
perfil íntimo muito preciso que existe

1
00:10:48,889 --> 00:10:53,389
o dossiê sobre cada um de nós que é tão

1
00:10:50,960 --> 00:10:54,830
extenso<font color="

1
00:10:53,389 --> 00:11:06,769
dizer que eles sabem mais sobre você

1
00:10:54,830 --> 00:11:08,240
do que sua mãe faz a principal causa do

1
00:11:06,769 --> 00:11:11,059
recentemente eu descobri que não é apenas

1
00:11:08,240 --> 00:11:13,759
que algum cara teve uma visão brilhante

1
00:11:11,059 --> 00:11:16,279
boneca de um filho, mas simplesmente que temos

1
00:11:13,759 --> 00:11:20,059
dados muito maiores para treiná-los e

1
00:11:16,279 --> 00:11:22,279
computadores muito melhores, a mágica está em

1
00:11:20,059 --> 00:11:24,079
os dados são uma tonelada de dados

1
00:11:22,279 --> 00:11:27,169
Quero dizer, são dados que nunca existiram

1
00:11:24,080 --> 00:11:30,259
antes nunca tivemos esses dados antes

1
00:11:27,169 --> 00:11:33,099
criamos tecnologias que nos permitem

1
00:11:30,259 --> 00:11:35,990
para capturar grandes quantidades de informações

1
00:11:33,100 --> 00:11:37,730
se você pensar em um bilhão de células<font color="

1
00:11:35,990 --> 00:11:40,399
o planeta com giroscópios e

1
00:11:37,730 --> 00:11:42,620
acelerômetros e leitores de impressão digital

1
00:11:40,399 --> 00:11:44,328
junte isso ao GPS e às fotos

1
00:11:42,620 --> 00:11:46,940
eles pegam e os tweets que você envia

1
00:11:44,328 --> 00:11:50,000
estamos todos emitindo enormes quantidades de

1
00:11:46,940 --> 00:11:51,680
dados individualmente carros que dirigem é o

1
00:11:50,000 --> 00:11:53,089
câmeras neles sugam informações

1
00:11:51,679 --> 00:11:54,649
sobre o mundo ao seu redor

1
00:11:53,089 --> 00:11:56,959
satélites que estão agora em órbita

1
00:11:54,649 --> 00:11:59,149
tamanho de uma torradeira, o infravermelho sobre o

1
00:11:56,958 --> 00:12:00,649
vegetação do planeta os meninos que

1
00:11:59,149 --> 00:12:03,429
estão nos oceanos derrotando

1
00:12:00,649 --> 00:12:03,429
modelos climáticos

1
00:12:06,139 --> 00:12:10,850
e<font color="

1
00:12:09,230 --> 00:12:14,990
informações sobre a situação geopolítica

1
00:12:10,850 --> 00:12:17,920
situações em que o mundo hoje está literalmente

1
00:12:14,990 --> 00:12:17,919
nadando nesses dados

1
00:12:20,889 --> 00:12:26,870
em 2012, a IBM estimou que um

1
00:12:25,519 --> 00:12:29,929
ser humano médio

1
00:12:26,870 --> 00:12:33,409
deixa 500 megabytes de digital

1
00:12:29,929 --> 00:12:35,959
pegadas todos os dias se você quisesse

1
00:12:33,409 --> 00:12:38,179
faça backup de apenas um dia de dados que

1
00:12:35,960 --> 00:12:41,389
a humanidade produz e você imprime

1
00:12:38,179 --> 00:12:45,079
em papel tamanho carta, fonte frente e verso

1
00:12:41,389 --> 00:12:47,149
tamanho 12 e você empilha, seria

1
00:12:45,080 --> 00:12:51,399
alcançar desde a superfície da terra até

1
00:12:47,149 --> 00:12:54,860
o Sol quatro vezes<font color="

1
00:12:51,399 --> 00:12:57,919
os dados em si não são bons ou maus, são

1
00:12:54,860 --> 00:13:00,050
como é usado, estamos realmente confiando

1
00:12:57,919 --> 00:13:02,569
a boa vontade destas pessoas e sobre o

1
00:13:00,049 --> 00:13:05,000
políticas destas empresas não há

1
00:13:02,570 --> 00:13:07,850
exigência legal sobre como eles podem e

1
00:13:05,000 --> 00:13:12,379
deveria usar esse tipo de dados que para mim

1
00:13:07,850 --> 00:13:14,180
está no cerne da questão da confiança, certo

1
00:13:12,379 --> 00:13:16,028
agora há uma corrida gigante para criar

1
00:13:14,179 --> 00:13:18,528
máquinas que são tão inteligentes quanto os humanos

1
00:13:16,028 --> 00:13:19,939
Google, eles estão trabalhando no que realmente é

1
00:13:18,528 --> 00:13:21,200
<cor da fonte="

1
00:13:19,940 --> 00:13:23,149
inteligência artificial eles têm o

1
00:13:21,200 --> 00:13:25,250
mais dinheiro eles têm mais talento

1
00:13:23,149 --> 00:13:28,940
eles estão comprando empresas de IA e

1
00:13:25,250 --> 00:13:30,950
empresas de robótica nas quais as pessoas ainda pensam

1
00:13:28,940 --> 00:13:32,870
Gulas, um mecanismo de busca e seu e-mail

1
00:13:30,950 --> 00:13:35,930
provedor e muitas outras coisas que

1
00:13:32,870 --> 00:13:40,789
usamos diariamente, mas por trás disso

1
00:13:35,929 --> 00:13:42,620
caixa de pesquisa são 10 milhões de servidores que

1
00:13:40,789 --> 00:13:45,469
torna o Google a computação mais poderosa

1
00:13:42,620 --> 00:13:48,350
plataforma no mundo que o Google é agora

1
00:13:45,470 --> 00:13:52,269
<cor da fonte="

1
00:13:48,350 --> 00:13:52,269
terá cem milhões de servidores

1
00:13:52,350 --> 00:13:56,769
então, quando você estiver interagindo com o Google

1
00:13:54,879 --> 00:13:58,929
estamos apenas vendo a unha do pé

1
00:13:56,769 --> 00:14:01,269
algo que é uma fera gigante no

1
00:13:58,929 --> 00:14:02,828
fazendo e a verdade é que nem estou

1
00:14:01,269 --> 00:14:05,399
certeza de que o Google sabe o que é

1
00:14:02,828 --> 00:14:05,399
tornando-se

1
00:14:11,528 --> 00:14:17,568
se você olhar dentro de quais algoritmos

1
00:14:14,269 --> 00:14:21,889
estão sendo usados no Google, sua tecnologia

1
00:14:17,568 --> 00:14:24,679
em grande parte dos anos 80, então estes são modelos

1
00:14:21,889 --> 00:14:27,649
que você treina mostrando a eles um 1 a 2

1
00:14:24,679 --> 00:14:28,969
e um 3 e não aprende o que é um 1 ou

1
00:14:27,649 --> 00:14:31,519
o que é<font color="

1
00:14:28,970 --> 00:14:34,579
A diferença entre 1 e 2 é que é

1
00:14:31,519 --> 00:14:35,990
apenas um cálculo na última metade

1
00:14:34,578 --> 00:14:37,609
década em que fizemos isso rápido

1
00:14:35,990 --> 00:14:40,430
progresso, tudo está dentro do padrão

1
00:14:37,610 --> 00:14:43,938
reconhecimento da maior parte do bom e velho

1
00:14:40,429 --> 00:14:46,870
A IA criada era quando diríamos aos nossos

1
00:14:43,938 --> 00:14:49,818
computadores como jogar um jogo como xadrez

1
00:14:46,870 --> 00:14:53,558
do velho paradigma onde você apenas

1
00:14:49,818 --> 00:14:53,558
diga ao computador exatamente o que fazer

1
00:14:57,299 --> 00:15:05,779
[Música]

1
00:14:59,620 --> 00:15:07,039
o desafio da ideia que ninguém na época tinha

1
00:15:05,779 --> 00:15:09,470
pensei que uma máquina poderia ter o

1
00:15:07,039 --> 00:15:11,389
<cor da fonte="

1
00:15:09,470 --> 00:15:13,370
velocidade para jogar perigo bem o suficiente

1
00:15:11,389 --> 00:15:17,720
contra as melhores unidades vamos jogar

1
00:15:13,370 --> 00:15:19,460
palavra de quatro letras de perigo para o ferro

1
00:15:17,720 --> 00:15:22,070
encaixando no casco de um cavalo

1
00:15:19,460 --> 00:15:24,710
Watson, qual é o problema, você está certo, você

1
00:15:22,070 --> 00:15:28,570
escolha o personagem literário APB para

1
00:15:24,710 --> 00:15:30,740
800 responderam ao Daily Double

1
00:15:28,570 --> 00:15:33,620
O Watson realmente obteve seu conhecimento

1
00:15:30,740 --> 00:15:36,080
lendo Wikipedia e 200 milhões de páginas

1
00:15:33,620 --> 00:15:38,269
de documentos em linguagem natural que você não pode

1
00:15:36,080 --> 00:15:38,830
programar cada linha de como o mundo

1
00:15:38,269 --> 00:15:41,870
funciona

1
00:15:38,830 --> 00:15:44,780
mushiya tem que aprender lendo agora nós

1
00:15:41,870 --> 00:15:49,299
venha para Watson que é<font color="

1
00:15:44,779 --> 00:15:49,299
a aposta olá

1
00:15:50,649 --> 00:15:58,429
4:13 e uma terça-feira em que Watson treinou

1
00:15:55,309 --> 00:16:00,859
enormes quantidades de texto, mas não é como

1
00:15:58,429 --> 00:16:02,269
ele entende o que está dizendo

1
00:16:00,860 --> 00:16:04,310
não sabe que a água molha as coisas

1
00:16:02,269 --> 00:16:05,809
tocando a água e vendo o caminho

1
00:16:04,309 --> 00:16:08,989
as coisas se comportam no mundo do jeito que você

1
00:16:05,809 --> 00:16:11,719
e eu falo muito, um itay não é

1
00:16:08,990 --> 00:16:14,419
construindo modelos lógicos de como o mundo

1
00:16:11,720 --> 00:16:17,360
funciona, em vez disso, é observar como o

1
00:16:14,419 --> 00:16:20,659
palavras aparecem no contexto de outras

1
00:16:17,360 --> 00:16:22,310
palavras<font color="

1
00:16:20,659 --> 00:16:25,219
Watson e alguém perguntou a ele apenas

1
00:16:22,309 --> 00:16:28,789
Watson para pensar e ele disse faz um

1
00:16:25,220 --> 00:16:30,110
natação submarina e o que ele quis dizer foi

1
00:16:28,789 --> 00:16:32,360
quando desenvolveram submarinos, eles

1
00:16:30,110 --> 00:16:35,240
princípios básicos emprestados da natação

1
00:16:32,360 --> 00:16:36,710
dos peixes, mas um submarino nada mais longe

1
00:16:35,240 --> 00:16:41,360
e mais rápido do que pescar na área enorme

1
00:16:36,710 --> 00:16:43,100
carga útil e nada peixe Watson

1
00:16:41,360 --> 00:16:45,050
vencer o jogo Jeopardy irá

1
00:16:43,100 --> 00:16:48,019
ficou na história da IA como o

1
00:16:45,049 --> 00:16:50,059
marco significativo que tendemos a ser

1
00:16:48,019 --> 00:16:52,669
maravilhado<font color="

1
00:16:50,059 --> 00:16:54,289
ainda mais surpreso quando a fera do computador

1
00:16:52,669 --> 00:16:56,809
humanos e coisas são humanos e

1
00:16:54,289 --> 00:16:58,589
naturalmente bons nisso é como fazemos

1
00:16:56,809 --> 00:17:00,989
progresso

1
00:16:58,590 --> 00:17:03,028
nos primeiros dias do cérebro do Google

1
00:17:00,990 --> 00:17:05,068
projeto eu dei para a equipe uma forma bem simples

1
00:17:03,028 --> 00:17:07,439
instrução que foi construída a maior

1
00:17:05,068 --> 00:17:10,500
Rede neuro possível como mil

1
00:17:07,439 --> 00:17:11,759
computadores na sua rede é algo muito

1
00:17:10,500 --> 00:17:15,509
perto de uma simulação de como o cérebro

1
00:17:11,759 --> 00:17:18,420
<cor da fonte="

1
00:17:15,509 --> 00:17:19,799
relevância contextual em seu cérebro você

1
00:17:18,420 --> 00:17:21,539
possuem longos neurônios que se conectam

1
00:17:19,799 --> 00:17:22,948
milhares de outros neurônios e você tem

1
00:17:21,539 --> 00:17:24,899
esses caminhos que são formados e

1
00:17:22,949 --> 00:17:27,150
forjado com base no que o cérebro precisa

1
00:17:24,900 --> 00:17:29,690
fazer quando um bebê tenta algo e

1
00:17:27,150 --> 00:17:32,100
tiver sucesso, há uma recompensa e isso

1
00:17:29,690 --> 00:17:34,259
caminho que criou o sucesso é

1
00:17:32,099 --> 00:17:36,449
fortalecido se falhar em alguma coisa

1
00:17:34,259 --> 00:17:38,490
o caminho fica enfraquecido e assim, com o tempo

1
00:17:36,450 --> 00:17:41,880
o cérebro se torna afiado para ser bom em

1
00:17:38,490 --> 00:17:43,309
o ambiente ao seu redor é realmente apenas

1
00:17:41,880 --> 00:17:45,930
fazendo com que as máquinas aprendam sozinhas

1
00:17:43,309 --> 00:17:47,129
<cor da fonte="

1
00:17:45,930 --> 00:17:50,720
aprendizagem e redes neurais significam

1
00:17:47,130 --> 00:17:53,730
aproximadamente a mesma coisa que aprendizagem profunda é

1
00:17:50,720 --> 00:17:56,339
uma abordagem totalmente diferente onde o

1
00:17:53,730 --> 00:17:57,660
computador aprende mais como uma criança

1
00:17:56,339 --> 00:18:01,379
apenas obtendo muitos dados e

1
00:17:57,660 --> 00:18:03,029
eventualmente descobrindo as coisas

1
00:18:01,380 --> 00:18:07,620
o computador fica cada vez mais inteligente

1
00:18:03,029 --> 00:18:09,299
já que tem mais experiências então imagine se

1
00:18:07,619 --> 00:18:11,489
você verá a rede neural, somos como um

1
00:18:09,299 --> 00:18:13,349
mil computadores e ele não acorda

1
00:18:11,490 --> 00:18:16,640
sabendo<font color="

1
00:18:13,349 --> 00:18:16,639
YouTube por uma semana

1
00:18:17,640 --> 00:18:26,910
[Música]

1
00:18:29,059 --> 00:18:39,769
[Música]

1
00:18:36,289 --> 00:18:41,869
e então, depois de assistir ao YouTube por uma semana

1
00:18:39,769 --> 00:18:43,519
o que eles aprenderam, tínhamos uma hipótese

1
00:18:41,869 --> 00:18:46,819
eles aprendem a detectar ocorrências comuns

1
00:18:43,519 --> 00:18:49,129
objetos em vídeos e assim sabemos o

1
00:18:46,819 --> 00:18:50,359
rostos humanos aparecem muito nos vídeos, então

1
00:18:49,130 --> 00:18:52,070
olhei e eis que havia um

1
00:18:50,359 --> 00:18:58,849
neurônio que aprendeu a detectar humanos

1
00:18:52,069 --> 00:19:02,929
rostos sabem o que mais aparece nos vídeos

1
00:18:58,849 --> 00:19:04,849
muito, então ficamos surpresos que havia

1
00:19:02,930 --> 00:19:06,269
<cor da fonte="

1
00:19:04,849 --> 00:19:15,189
detectar gatos

1
00:19:06,269 --> 00:19:18,230
[Música]

1
00:19:15,190 --> 00:19:24,920
esse é o reconhecimento do CF, uau

1
00:19:18,230 --> 00:19:26,029
isso é um gato, ok, legal, ótimo, é tudo

1
00:19:24,920 --> 00:19:26,660
bastante inócuo quando você está pensando

1
00:19:26,029 --> 00:19:29,859
sobre o futuro

1
00:19:26,660 --> 00:19:32,540
tudo parece meio inofensivo em benigno

1
00:19:29,859 --> 00:19:34,459
mas estamos fazendo arquiteturas cognitivas

1
00:19:32,539 --> 00:19:36,230
que voará mais longe e mais rápido que nós

1
00:19:34,460 --> 00:19:39,110
e carregam uma carga útil maior e eles

1
00:19:36,230 --> 00:19:41,089
não será quente e confuso, acho que em

1
00:19:39,109 --> 00:19:43,699
três a cinco anos você verá um

1
00:19:41,089 --> 00:19:47,599
sistema computacional que será capaz de

1
00:19:43,700 --> 00:19:50,870
autonomamente<font color="

1
00:19:47,599 --> 00:19:53,500
para construir uma compreensão não muito diferente da

1
00:19:50,869 --> 00:19:53,500
como a mente humana funciona

1
00:19:54,470 --> 00:19:59,850
o que quer que tenha sido aquele almoço, certamente foi

1
00:19:56,940 --> 00:20:03,090
delicioso simplesmente uma soma de Robbie

1
00:19:59,849 --> 00:20:04,859
sintéticos é o seu cozinheiro também

1
00:20:03,089 --> 00:20:09,720
fabrica as matérias-primas vêm

1
00:20:04,859 --> 00:20:13,648
por aqui Robbie eu vou te mostrar como isso

1
00:20:09,720 --> 00:20:16,919
funciona se apresenta uma amostra de humano

1
00:20:13,648 --> 00:20:18,449
comida através desta abertura aqui embaixo

1
00:20:16,919 --> 00:20:20,429
há um pequeno produto químico embutido

1
00:20:18,450 --> 00:20:22,590
laboratório onde ele analisou mais tarde ele

1
00:20:20,429 --> 00:20:26,059
pode reproduzir moléculas idênticas<font color="

1
00:20:22,589 --> 00:20:29,490
qualquer forma ou quantidade, tanto quanto sonho

1
00:20:26,058 --> 00:20:32,339
conheça a nova categoria revolucionária da Baxter

1
00:20:29,490 --> 00:20:34,589
de robôs com bom senso Baxter

1
00:20:32,339 --> 00:20:38,009
Baxter é um bom exemplo do

1
00:20:34,589 --> 00:20:40,349
tipo de competição que enfrentamos por máquinas

1
00:20:38,009 --> 00:20:45,150
Baxter pode fazer quase tudo que podemos fazer

1
00:20:40,349 --> 00:20:47,699
com nossas mãos Baxter custa sobre o que

1
00:20:45,150 --> 00:20:49,860
trabalhador que recebe salário mínimo ganha em um ano

1
00:20:47,700 --> 00:20:51,420
o Baxter não tomará o lugar de

1
00:20:49,859 --> 00:20:52,979
um trabalhador de salário mínimo que ele aceitará

1
00:20:51,420 --> 00:20:56,700
o lugar de três porque eles nunca

1
00:20:52,980 --> 00:20:57,839
é contratado, eles nunca fazem pausas, isso é

1
00:20:56,700 --> 00:21:00,569
<cor da fonte="

1
00:20:57,839 --> 00:21:02,939
diga deslocamento de empregos que eles estão indo

1
00:21:00,569 --> 00:21:06,839
ser feito mais rápido mais rápido mais barato

1
00:21:02,940 --> 00:21:09,000
máquinas nossa capacidade de permanecer

1
00:21:06,839 --> 00:21:12,059
a corrente é tão insanamente limitada em comparação

1
00:21:09,000 --> 00:21:14,130
às máquinas que construímos, por exemplo, agora

1
00:21:12,059 --> 00:21:15,450
temos esse grande movimento de uber e

1
00:21:14,130 --> 00:21:17,370
Lyft é uma espécie de transporte

1
00:21:15,450 --> 00:21:19,799
transporte mais barato e democratizante

1
00:21:17,369 --> 00:21:20,909
o que é ótimo, o próximo passo será

1
00:21:19,799 --> 00:21:22,859
seja que o argumento seja apresentado por

1
00:21:20,910 --> 00:21:24,029
<cor da fonte="

1
00:21:22,859 --> 00:21:26,359
e os motoristas de Lyft tiveram que encontrar algo

1
00:21:24,029 --> 00:21:26,359
novo para fazer

1
00:21:26,380 --> 00:21:31,150
existem 4 milhões de motoristas profissionais

1
00:21:29,019 --> 00:21:34,139
nos Estados Unidos eles estão desempregados

1
00:21:31,150 --> 00:21:37,900
em breve 7 milhões de pessoas farão entrada de dados

1
00:21:34,140 --> 00:21:41,530
essas pessoas vão ficar desempregadas

1
00:21:37,900 --> 00:21:43,500
um trabalho não envolve apenas dinheiro

1
00:21:41,529 --> 00:21:46,839
nível biológico, serve a um propósito

1
00:21:43,500 --> 00:21:49,299
torna-se algo definidor quando os empregos

1
00:21:46,839 --> 00:21:50,740
desapareceu em qualquer civilização

1
00:21:49,299 --> 00:21:53,159
não demora muito<font color="

1
00:21:50,740 --> 00:21:53,160
violência

1
00:22:00,569 --> 00:22:04,710
enfrentamos uma divisão gigantesca entre ricos e

1
00:22:02,789 --> 00:22:06,750
pobre porque é isso que a automação e

1
00:22:04,710 --> 00:22:10,289
A IA provocará uma maior divisão entre

1
00:22:06,750 --> 00:22:11,910
os que têm e os que não têm agora é

1
00:22:10,289 --> 00:22:15,389
trabalhando na classe média em

1
00:22:11,910 --> 00:22:17,490
empregos de colarinho branco que o Watson da IBM faz

1
00:22:15,390 --> 00:22:20,840
análise de negócios que usamos para pagar um

1
00:22:17,490 --> 00:22:24,029
analista de negócios US$ 300 por hora para fazer

1
00:22:20,839 --> 00:22:25,500
hoje você vai para a faculdade para ser médico

1
00:22:24,029 --> 00:22:27,809
ser contador ser jornalista

1
00:22:25,500 --> 00:22:31,559
não está claro se haverá empregos

1
00:22:27,809 --> 00:22:33,839
<cor da fonte="

1
00:22:31,559 --> 00:22:35,879
uma carreira de 40 anos em radiologia apenas

1
00:22:33,839 --> 00:22:39,889
lendo imagens, acho que isso poderia ser um

1
00:22:35,880 --> 00:22:39,890
desafio aos novos condutores de hoje

1
00:22:56,339 --> 00:23:03,879
mas hoje vivemos num caso robótico

1
00:23:00,759 --> 00:23:07,509
O robô da Vinci é atualmente utilizado por

1
00:23:03,880 --> 00:23:11,340
variedade de cirurgiões por sua precisão e

1
00:23:07,509 --> 00:23:14,819
sua capacidade de evitar o inevitável

1
00:23:11,339 --> 00:23:23,740
flutuações da mão humana

1
00:23:14,819 --> 00:23:26,329
[Música]

1
00:23:23,740 --> 00:23:29,380
quem assiste isso sente o

1
00:23:26,329 --> 00:23:29,379
incrível disso

1
00:23:31,039 --> 00:23:36,869
você olha através do escopo e você tem

1
00:23:33,630 --> 00:23:39,570
vi a mão em forma de garra segurando a mão daquela mulher

1
00:23:36,869 --> 00:23:44,119
ovário a humanidade estava descansando ali mesmo

1
00:23:39,569 --> 00:23:47,000
<cor da fonte="

1
00:23:44,119 --> 00:23:52,139
é o futuro, mas não é o futuro

1
00:23:47,000 --> 00:23:54,329
é o presente se você pensar em um

1
00:23:52,140 --> 00:23:56,430
robô cirúrgico muitas vezes não há muito

1
00:23:54,329 --> 00:23:57,629
de inteligência nessas coisas, mas acabou

1
00:23:56,430 --> 00:23:59,610
tempo à medida que colocamos mais e mais

1
00:23:57,630 --> 00:24:01,680
inteligência nesses sistemas, o

1
00:23:59,609 --> 00:24:04,049
robôs cirúrgicos podem realmente aprender com

1
00:24:01,680 --> 00:24:05,370
cada cirurgia robótica eles estão rastreando o

1
00:24:04,049 --> 00:24:06,629
movimentos eles estão entendendo o que

1
00:24:05,369 --> 00:24:09,209
funcionou e o que não funcionou e

1
00:24:06,630 --> 00:24:11,130
eventualmente<font color="

1
00:24:09,210 --> 00:24:13,860
cirurgias serão capazes de realizar

1
00:24:11,130 --> 00:24:16,440
que inteiramente por si só ou com humanos

1
00:24:13,859 --> 00:24:18,659
supervisão normalmente eu faço sobre um

1
00:24:16,440 --> 00:24:22,710
cento e cinquenta casos que histerectomias

1
00:24:18,660 --> 00:24:26,250
eles dizem e agora a maioria deles está pronta

1
00:24:22,710 --> 00:24:31,829
roboticamente eu faço talvez um caso aberto por

1
00:24:26,250 --> 00:24:34,970
ano, então me sinto desconfortável em como

1
00:24:31,829 --> 00:24:34,970
bases abertas mais

1
00:24:35,490 --> 00:24:42,210
parece que estamos alimentando-o e

1
00:24:37,589 --> 00:24:47,629
criá-lo, mas de certa forma somos escravos de

1
00:24:42,210 --> 00:24:47,630
a tecnologia porque<font color="

1
00:24:50,400 --> 00:24:55,960
as máquinas estão ficando maiores e

1
00:24:52,569 --> 00:24:58,629
maiores mordidas em nosso conjunto de habilidades e

1
00:24:55,960 --> 00:25:00,400
nunca estão aumentando a velocidade e por isso temos

1
00:24:58,630 --> 00:25:11,770
tenho que correr cada vez mais rápido para manter

1
00:25:00,400 --> 00:25:12,280
à frente das máquinas você se sente atraído

1
00:25:11,769 --> 00:25:15,490
para mim

1
00:25:12,279 --> 00:25:21,700
o que você está atraído por mim você me dá

1
00:25:15,490 --> 00:25:23,859
indicações de que você é eu faço sim isso

1
00:25:21,700 --> 00:25:27,580
é o futuro para o qual estamos indo, nós

1
00:25:23,859 --> 00:25:29,369
queremos projetar nossos companheiros, estamos

1
00:25:27,579 --> 00:25:32,339
vou gostar de ver um rosto humano no eu

1
00:25:29,369 --> 00:25:34,509
<cor da fonte="

1
00:25:32,339 --> 00:25:37,299
deprimentemente fácil

1
00:25:34,509 --> 00:25:39,879
não somos tão complicados, simples

1
00:25:37,299 --> 00:25:44,139
resposta de estímulo eu posso fazer você gostar de mim

1
00:25:39,880 --> 00:25:45,550
basicamente sorrindo muito para você, sim

1
00:25:44,140 --> 00:25:48,300
o nosso vai ser fantástico em

1
00:25:45,549 --> 00:25:48,299
nos manipulando

1
00:25:49,000 --> 00:25:53,380
[Música]

1
00:25:54,809 --> 00:26:01,269
então você desenvolveu uma tecnologia que

1
00:25:57,849 --> 00:26:03,039
pode sentir o que as pessoas estão sentindo certo

1
00:26:01,269 --> 00:26:05,079
desenvolvemos tecnologia que pode ler

1
00:26:03,039 --> 00:26:07,839
suas expressões faciais e mapeie isso para

1
00:26:05,079 --> 00:26:09,849
uma série de estados emocionais quinze

1
00:26:07,839 --> 00:26:11,500
anos atrás eu tinha acabado de terminar meu

1
00:26:09,849 --> 00:26:13,569
graduação<font color="

1
00:26:11,500 --> 00:26:16,720
ciência e me ocorreu que eu estava

1
00:26:13,569 --> 00:26:19,089
passar muito tempo interagindo com

1
00:26:16,720 --> 00:26:22,150
meus laptops em meus dispositivos ainda estes

1
00:26:19,089 --> 00:26:26,289
dispositivos não tinham absolutamente nenhuma ideia de como eu estava

1
00:26:22,150 --> 00:26:28,540
sentindo que comecei a pensar e se isso

1
00:26:26,289 --> 00:26:30,730
dispositivo podia sentir que eu estava estressado

1
00:26:28,539 --> 00:26:38,950
ou eu estava tendo um dia ruim, o que seria

1
00:26:30,730 --> 00:26:41,319
que se abre para você posso receber um abraço nós

1
00:26:38,950 --> 00:26:43,960
fez as crianças interagirem com a tecnologia

1
00:26:41,319 --> 00:26:55,119
muito disso ainda está em desenvolvimento, mas

1
00:26:43,960 --> 00:27:01,299
foi simplesmente incrível quem gosta de robôs minha mãe

1
00:26:55,119 --> 00:27:04,419
questões de matemática realmente difíceis<font color="

1
00:27:01,299 --> 00:27:10,389
assustando as pessoas, então comece por

1
00:27:04,420 --> 00:27:12,820
sorrindo lindo sulco na testa legal

1
00:27:10,390 --> 00:27:14,620
sobrancelha levantada nesta geração

1
00:27:12,819 --> 00:27:17,619
a tecnologia está cercando todos eles

1
00:27:14,619 --> 00:27:19,059
o tempo é quase como eles esperam

1
00:27:17,619 --> 00:27:21,099
têm robôs em suas casas e eles

1
00:27:19,059 --> 00:27:26,589
esperamos que esses robôs sejam socialmente

1
00:27:21,099 --> 00:27:30,059
inteligente o que torna os robôs inteligentes

1
00:27:26,589 --> 00:27:33,490
eles como uma aula de matemática ou biologia eu

1
00:27:30,059 --> 00:27:37,359
acho que você teria que treinar tudo bem

1
00:27:33,490 --> 00:27:39,039
vamos caminhar até aqui, então se você sorrir e

1
00:27:37,359 --> 00:27:41,789
você aumenta<font color="

1
00:27:39,039 --> 00:27:41,789
até você

1
00:27:43,210 --> 00:27:52,009
mas se você parecer bravo, isso vai correr

1
00:27:45,679 --> 00:27:56,720
estamos trocando computadores para ler e

1
00:27:52,009 --> 00:27:58,730
reconhecer emoções a resposta até agora

1
00:27:56,720 --> 00:28:00,288
tem sido realmente incrível, as pessoas são

1
00:27:58,730 --> 00:28:05,808
integrando isso em aplicativos de saúde

1
00:28:00,288 --> 00:28:08,558
meditação aplicativos robôs carros nós vamos

1
00:28:05,808 --> 00:28:08,558
veja como isso se desenrola

1
00:28:09,730 --> 00:28:15,528
robôs podem conter IA, mas o robô é

1
00:28:13,339 --> 00:28:17,418
apenas uma instanciação física e o

1
00:28:15,528 --> 00:28:19,819
inteligência artificial é o cérebro e

1
00:28:17,419 --> 00:28:21,710
então cérebros podem existir puramente em software

1
00:28:19,819 --> 00:28:24,470
sistemas baseados eles não precisam ter um

1
00:28:21,710 --> 00:28:26,569
físico<font color="

1
00:28:24,470 --> 00:28:29,899
qualquer inteligência artificial, temos um

1
00:28:26,569 --> 00:28:32,358
muitos robôs idiotas por aí, mas um idiota

1
00:28:29,898 --> 00:28:34,459
robô pode ser um robô inteligente da noite para o dia

1
00:28:32,358 --> 00:28:38,210
dado o software certo dado o direito

1
00:28:34,460 --> 00:28:40,009
sensores não podemos deixar de imputar o motivo

1
00:28:38,210 --> 00:28:42,200
em objetos inanimados, fazemos isso com

1
00:28:40,009 --> 00:28:46,509
máquinas, vamos tratá-los como crianças

1
00:28:42,200 --> 00:28:49,929
vamos tratá-los como substitutos e

1
00:28:46,509 --> 00:28:49,929
nós pagaremos o preço

1
00:28:51,200 --> 00:28:54,298
[Música]

1
00:29:00,630 --> 00:29:10,950
[Música]

1
00:29:08,769 --> 00:29:17,338
você é bem-vindo a isso, sim

1
00:29:10,950 --> 00:29:17,338
[Música]

1
00:29:19,048 --> 00:29:24,190
meu objetivo é ter uma aparência mais humana

1
00:29:22,000 --> 00:29:27,240
robô que possui o humano<font color="

1
00:29:24,190 --> 00:29:30,318
intenção desejo

1
00:29:27,240 --> 00:29:30,318
[Música]

1
00:29:36,309 --> 00:29:44,079
o nome do robô é Erica erica é

1
00:29:41,140 --> 00:29:47,410
o robô humanoide mais avançado do mundo

1
00:29:44,079 --> 00:29:49,199
o mundo que eu acho que Erica e eu podemos contemplar

1
00:29:47,410 --> 00:29:52,460
na sua cara

1
00:29:49,200 --> 00:29:57,029
[Música]

1
00:29:52,460 --> 00:29:58,490
apenas para nossas propriedades e prevemos

1
00:29:57,029 --> 00:30:01,049
com os interlocutores

1
00:29:58,490 --> 00:30:03,750
especialmente para idosos e jovens

1
00:30:01,049 --> 00:30:06,329
ideias de pessoas com deficiência infantil

1
00:30:03,750 --> 00:30:10,470
quando falamos com o robô não temos medo

1
00:30:06,329 --> 00:30:14,689
as barreiras sociais as pressões sociais

1
00:30:10,470 --> 00:30:18,390
finalmente todos, exceto o Android como

1
00:30:14,690 --> 00:30:20,610
apenas nosso amigo eram parceiros que temos

1
00:30:18,390 --> 00:30:23,280
implementou um desejo simples agora ela

1
00:30:20,609 --> 00:30:25,969
queria<font color="

1
00:30:23,279 --> 00:30:25,970
queria prender

1
00:30:27,329 --> 00:30:31,808
[Música]

1
00:30:29,430 --> 00:30:32,620
se um robô pudesse ter uma intenção

1
00:30:31,808 --> 00:30:35,529
há Oreos

1
00:30:32,619 --> 00:30:46,000
o robô pode entender o de outras pessoas

1
00:30:35,529 --> 00:30:48,190
desejos de engajamento que estão ligados a

1
00:30:46,000 --> 00:30:49,859
relacionamento com as pessoas e que

1
00:30:48,190 --> 00:30:53,440
significa que eles gostam um do outro

1
00:30:49,859 --> 00:30:56,039
isso significa bem, não tenho certeza e não quero

1
00:30:53,440 --> 00:30:56,039
esfregar um ao outro

1
00:30:57,589 --> 00:31:00,859
construímos sobre inteligência oficial e

1
00:30:59,779 --> 00:31:03,470
a primeira coisa que queremos fazer é

1
00:31:00,859 --> 00:31:06,589
replicar-nos

1
00:31:03,470 --> 00:31:11,319
Acho que o ponto chave chegará quando todos

1
00:31:06,589 --> 00:31:16,908
os principais sentidos são a visão replicada

1
00:31:11,319 --> 00:31:20,379
toque o cheiro quando replicamos nossos sentidos

1
00:31:16,909 --> 00:31:20,380
é que quando ele se torna vivo

1
00:31:27,789 --> 00:31:34,579
muitas de nossas máquinas estão sendo<font color="

1
00:31:30,559 --> 00:31:36,289
para nos entender, mas o que acontece com

1
00:31:34,579 --> 00:31:38,210
uma criatura antropomórfica descobre

1
00:31:36,289 --> 00:31:40,549
que eles possam ajustar sua lealdade

1
00:31:38,210 --> 00:31:46,460
ajuste sua coragem ajuste sua

1
00:31:40,549 --> 00:31:48,379
avareza ajusta sua astúcia à média

1
00:31:46,460 --> 00:31:49,910
pessoa que não vê robôs assassinos

1
00:31:48,380 --> 00:31:52,370
andando pelas ruas eles ficam tipo o que

1
00:31:49,910 --> 00:31:54,350
você está falando sobre homem

1
00:31:52,369 --> 00:31:58,219
queremos ter certeza de que não temos

1
00:31:54,349 --> 00:31:59,599
robôs assassinos descendo a rua uma vez

1
00:31:58,220 --> 00:32:08,329
eles estão descendo a rua também

1
00:31:59,599 --> 00:32:11,449
tarde, o que me preocupa agora

1
00:32:08,329 --> 00:32:14,409
<cor da fonte="

1
00:32:11,450 --> 00:32:14,410
de armas autônomas

1
00:32:28,089 --> 00:32:34,669
até agora as pessoas expressaram desconforto

1
00:32:31,130 --> 00:32:42,170
sobre drones pilotados remotamente

1
00:32:34,670 --> 00:32:44,720
aeronave se você levar uma câmera drones

1
00:32:42,170 --> 00:32:47,990
alimentá-lo no sistema de IA é muito

1
00:32:44,720 --> 00:32:49,640
passo fácil daqui para totalmente autônomo

1
00:32:47,990 --> 00:32:53,170
armas que escolhem seus próprios alvos

1
00:32:49,640 --> 00:32:53,170
lançar seus próprios mísseis

1
00:32:55,269 --> 00:32:58,389
[Música]

1
00:33:02,299 --> 00:33:05,368
[Aplausos]

1
00:33:12,720 --> 00:33:17,440
a expectativa de vida de um ser humano

1
00:33:15,490 --> 00:33:20,460
e esse tipo de ambiente desconcertante

1
00:33:17,440 --> 00:33:20,460
será medido em segundos

1
00:33:20,640 --> 00:33:27,340
a certa altura, drones ou ficção científica

1
00:33:24,009 --> 00:33:31,779
e agora eles se tornaram a coisa normal

1
00:33:27,339 --> 00:33:35,109
e guerra<font color="

1
00:33:31,779 --> 00:33:36,759
inventário militar sozinho, mas eles não são

1
00:33:35,109 --> 00:33:40,449
apenas um nós. fenômeno há mais do que

1
00:33:36,759 --> 00:33:43,000
80 países que os operam, está

1
00:33:40,450 --> 00:33:44,200
raciocinar que as pessoas que fazem alguns dos

1
00:33:43,000 --> 00:33:46,690
decisões mais importantes e difíceis

1
00:33:44,200 --> 00:33:50,250
no mundo vão começar a usar e

1
00:33:46,690 --> 00:33:50,250
implementar inteligência artificial

1
00:33:50,859 --> 00:33:54,709
a Força Aérea acaba de projetar um quatro

1
00:33:53,180 --> 00:33:58,930
programa de jatos de cem bilhões de dólares para

1
00:33:54,710 --> 00:34:01,579
coloque pilotos no céu e uma IA de US$ 500

1
00:33:58,930 --> 00:34:03,740
desenhado por um casal<font color="

1
00:34:01,579 --> 00:34:10,699
estudantes como sendo os melhores pilotos humanos

1
00:34:03,740 --> 00:34:12,918
com um algoritmo relativamente simples io I

1
00:34:10,699 --> 00:34:16,460
terá um impacto tão grande no

1
00:34:12,918 --> 00:34:18,888
militar como o motor de combustão tinha em

1
00:34:16,460 --> 00:34:20,690
na virada do século que

1
00:34:18,889 --> 00:34:23,809
literalmente tocar tudo o que o

1
00:34:20,690 --> 00:34:26,450
militares fazem em comboios sem motorista

1
00:34:23,809 --> 00:34:29,210
entrega de suprimentos logísticos para

1
00:34:26,449 --> 00:34:32,329
drones não tripulados entregando ajuda médica

1
00:34:29,210 --> 00:34:33,559
para propaganda computacional tentar vencer

1
00:34:32,329 --> 00:34:38,059
os corações e mentes da população

1
00:34:33,559 --> 00:34:40,279
<cor da fonte="

1
00:34:38,059 --> 00:34:47,179
tem o melhor dia que provavelmente alcançarei

1
00:34:40,280 --> 00:34:49,639
domínio neste planeta em algum momento

1
00:34:47,179 --> 00:34:53,659
no início do século 21, toda a humanidade

1
00:34:49,639 --> 00:34:56,000
estava unido em celebração ficamos maravilhados

1
00:34:53,659 --> 00:34:58,809
nossa própria magnificência quando demos à luz

1
00:34:56,000 --> 00:34:58,809
um

1
00:34:59,829 --> 00:35:03,549
Quero dizer inteligência artificial

1
00:35:01,420 --> 00:35:07,720
consciência singular que gerou uma

1
00:35:03,550 --> 00:35:11,170
raça inteira de máquinas que não conhecemos

1
00:35:07,719 --> 00:35:15,089
quem atacou primeiro a nós ou a eles, mas sabemos

1
00:35:11,170 --> 00:35:17,139
que fomos nós que queimamos o céu

1
00:35:15,090 --> 00:35:18,970
<cor da fonte="

1
00:35:17,139 --> 00:35:22,710
ficção não apenas prever o futuro

1
00:35:18,969 --> 00:35:22,709
mas moldando o futuro

1
00:35:27,130 --> 00:35:33,039
Arthur Conan Doyle cavalgando antes do mundo

1
00:35:30,639 --> 00:35:35,889
Primeira guerra apenas o perigo de como

1
00:35:33,039 --> 00:35:39,730
submarinos podem ser usados para realizar

1
00:35:35,889 --> 00:35:42,940
bloqueios civis no momento em que ele está

1
00:35:39,730 --> 00:35:44,710
escrevendo esta ficção a Marinha Real fez

1
00:35:42,940 --> 00:35:47,500
diversão de Arthur Conan Doyle por isso

1
00:35:44,710 --> 00:35:49,460
ideia absurda de que submarinos poderiam ser

1
00:35:47,500 --> 00:35:52,539
útil e guerra

1
00:35:49,460 --> 00:35:52,539
[Música]

1
00:35:54,039 --> 00:35:58,550
uma das coisas que vimos na história

1
00:35:55,818 --> 00:36:02,029
é que a nossa atitude em relação à tecnologia

1
00:35:58,550 --> 00:36:02,660
<cor da fonte="

1
00:36:02,030 --> 00:36:05,510
dependente

1
00:36:02,659 --> 00:36:07,338
por exemplo, as nações submarinas como

1
00:36:05,510 --> 00:36:09,800
Grã-Bretanha e até mesmo os estados I

1
00:36:07,338 --> 00:36:12,949
achei horrível usar o submarino

1
00:36:09,800 --> 00:36:15,318
na verdade, o alemão estava acostumado com o submarino

1
00:36:12,949 --> 00:36:18,879
realizar ataques foi a razão pela qual

1
00:36:15,318 --> 00:36:22,400
os Estados Unidos aderiram à Primeira Guerra Mundial

1
00:36:18,880 --> 00:36:24,559
mas avançar a linha do tempo para os Estados Unidos

1
00:36:22,400 --> 00:36:27,920
Estados da América foi repentina e

1
00:36:24,559 --> 00:36:32,119
atacado deliberadamente pelo Império de

1
00:36:27,920 --> 00:36:34,880
Japão<font color="

1
00:36:32,119 --> 00:36:41,059
ordem sai para cometer irrestrito

1
00:36:34,880 --> 00:36:42,890
guerra submarina contra o Japão, então

1
00:36:41,059 --> 00:36:46,460
Arthur Conan Doyle acabou por ser

1
00:36:42,889 --> 00:36:48,259
certo, essa é a grande e velha frase

1
00:36:46,460 --> 00:36:51,440
sobre ficção científica é mentira que

1
00:36:48,260 --> 00:36:53,180
diz a verdade, colegas executivos,

1
00:36:51,440 --> 00:36:55,309
me dá um grande prazer apresentar você

1
00:36:53,179 --> 00:36:59,049
para o futuro da aplicação da lei

1
00:36:55,309 --> 00:36:59,050
Edie 209

1
00:37:04,289 --> 00:37:09,029
isso não é apenas uma questão de ciência

1
00:37:06,059 --> 00:37:10,420
ficção isto é sobre o que vem a seguir

1
00:37:09,030 --> 00:37:14,000
o que está acontecendo agora

1
00:37:10,420 --> 00:37:17,159
[Música]

1
00:37:14,000 --> 00:37:20,730
o papel dos sistemas inteligentes é

1
00:37:17,159 --> 00:37:27,750
crescendo muito rapidamente na guerra, todos

1
00:37:20,730 --> 00:37:29,849
está avançando no reino não tripulado hoje

1
00:37:27,750 --> 00:37:31,860
O Secretário de Defesa é muito claro

1
00:37:29,849 --> 00:37:34,650
não criaremos sistemas totalmente autônomos

1
00:37:31,860 --> 00:37:36,390
atacar veículos nem todo mundo vai

1
00:37:34,650 --> 00:37:38,700
manter-se nesse mesmo conjunto de

1
00:37:36,389 --> 00:37:41,849
valores e quando a China e a Rússia e

1
00:37:38,699 --> 00:37:45,329
começar a implantar veículos autônomos que

1
00:37:41,849 --> 00:37:51,989
pode atacar e matar qual é o movimento que

1
00:37:45,329 --> 00:37:53,489
nós vamos fazer com que você não possa dizer bem

1
00:37:51,989 --> 00:37:55,229
vamos usar armas em moradores de rua

1
00:37:53,489 --> 00:37:58,049
para o nosso domínio militar, mas não

1
00:37:55,230 --> 00:37:59,849
outra pessoa vai usá-los se você

1
00:37:58,050 --> 00:38:03,060
faça essas armas que elas vão ser

1
00:37:59,849 --> 00:38:05,750
usado para atacar<font color="

1
00:38:03,059 --> 00:38:05,750
grandes números

1
00:38:07,110 --> 00:38:10,249
[Música]

1
00:38:13,159 --> 00:38:17,449
armas de torneio que por sua natureza

1
00:38:15,650 --> 00:38:19,519
armas de destruição em massa porque

1
00:38:17,449 --> 00:38:23,058
não precisa de um ser humano para guiá-lo

1
00:38:19,519 --> 00:38:25,900
ou carregá-lo, você só precisa de uma pessoa para

1
00:38:23,059 --> 00:38:29,780
você sabe escrever um pequeno programa

1
00:38:25,900 --> 00:38:33,588
é só alegrar a complexidade de

1
00:38:29,780 --> 00:38:37,450
esse campo é legal é importante isso

1
00:38:33,588 --> 00:38:43,788
é incrível, também é assustador e

1
00:38:37,449 --> 00:38:46,068
é tudo uma questão de confiança, é uma carta aberta

1
00:38:43,789 --> 00:38:47,900
sobre inteligência artificial assinado por

1
00:38:46,068 --> 00:38:50,210
alguns dos<font color="

1
00:38:47,900 --> 00:38:52,548
o que eles querem proibir o uso de

1
00:38:50,210 --> 00:38:54,798
armas autônomas, afirmou o autor

1
00:38:52,548 --> 00:38:56,929
citar que armas autônomas foram

1
00:38:54,798 --> 00:38:59,088
descrita como a terceira revolução

1
00:38:56,929 --> 00:39:01,250
guerra mil inteligência artificial

1
00:38:59,088 --> 00:39:05,000
especialistas que pedem uma proibição global de

1
00:39:01,250 --> 00:39:07,039
robôs assassinos, esta carta aberta basicamente

1
00:39:05,000 --> 00:39:08,480
diz que deveríamos redefinir o objetivo de

1
00:39:07,039 --> 00:39:11,390
o campo da inteligência artificial

1
00:39:08,480 --> 00:39:13,880
longe de apenas criar puro e não direcionado

1
00:39:11,389 --> 00:39:15,739
inteligência para criar benefícios

1
00:39:13,880 --> 00:39:17,568
inteligência, o desenvolvimento da IA é

1
00:39:15,739 --> 00:39:19,368
não<font color="

1
00:39:17,568 --> 00:39:21,588
continue e melhore se o

1
00:39:19,369 --> 00:39:23,420
comunidade internacional não está colocando

1
00:39:21,588 --> 00:39:25,788
certos controles sobre esse povo

1
00:39:23,420 --> 00:39:27,829
desenvolver coisas que podem fazer qualquer coisa

1
00:39:25,789 --> 00:39:29,960
carta diz que não temos anos

1
00:39:27,829 --> 00:39:31,910
décadas de distância destas armas serem

1
00:39:29,960 --> 00:39:34,010
implantados, então tivemos seis milhares de

1
00:39:31,909 --> 00:39:37,139
países dessa carta, incluindo muitos

1
00:39:34,010 --> 00:39:39,390
das principais figuras da área

1
00:39:37,139 --> 00:39:41,489
Estou recebendo muitas visitas de

1
00:39:39,389 --> 00:39:43,980
altos funcionários que desejam

1
00:39:41,489 --> 00:39:46,709
<cor da fonte="

1
00:39:43,980 --> 00:39:49,170
é uma arma muito importante e autônoma

1
00:39:46,710 --> 00:39:52,528
pode fazer parte do Departamento de Defesa

1
00:39:49,170 --> 00:39:54,869
plano que é muito assustador porque um

1
00:39:52,528 --> 00:39:56,670
sistema de valores dos desenvolvedores militares de

1
00:39:54,869 --> 00:40:02,160
Tecnologia não é o mesmo que valor

1
00:39:56,670 --> 00:40:04,349
sistema da raça humana fora do

1
00:40:02,159 --> 00:40:06,389
preocupações sobre a possibilidade de que isso

1
00:40:04,349 --> 00:40:07,140
A tecnologia pode ser uma ameaça para a humanidade

1
00:40:06,389 --> 00:40:09,268
existência

1
00:40:07,139 --> 00:40:11,068
<cor da fonte="

1
00:40:09,268 --> 00:40:14,159
financiou o Instituto do Futuro da Vida para

1
00:40:11,068 --> 00:40:16,230
tente lidar com todos esses problemas

1
00:40:14,159 --> 00:40:17,818
desses caras são reservados e por isso é

1
00:40:16,230 --> 00:40:23,699
interessante para mim ver eles e você

1
00:40:17,818 --> 00:40:25,288
sabemos que todos juntos tudo o que temos é

1
00:40:23,699 --> 00:40:28,018
um resultado da nossa inteligência não é

1
00:40:25,289 --> 00:40:30,630
o resultado de nossos grandes dentes assustadores ou de nossos

1
00:40:28,018 --> 00:40:32,338
grandes garras ou nossos enormes músculos é

1
00:40:30,630 --> 00:40:35,130
porque na verdade somos relativamente

1
00:40:32,338 --> 00:40:37,619
inteligente e da minha geração

1
00:40:35,130 --> 00:40:39,720
estamos todos tendo o que chamamos de vaca sagrada

1
00:40:37,619 --> 00:40:42,088
ou algo sagrado, outra coisa momentos

1
00:40:39,719 --> 00:40:44,959
<cor da fonte="

1
00:40:42,088 --> 00:40:47,548
acelerando mais rápido do que esperávamos

1
00:40:44,960 --> 00:40:49,528
lembre-se de estar sentado ao redor da mesa lá

1
00:40:47,548 --> 00:40:51,809
com alguns dos melhores e mais inteligentes

1
00:40:49,528 --> 00:40:54,480
mentes do mundo e o que realmente

1
00:40:51,809 --> 00:40:57,930
me impressionou foi talvez o cérebro humano seja

1
00:40:54,480 --> 00:40:59,400
incapaz de compreender totalmente a complexidade

1
00:40:57,929 --> 00:41:02,969
do mundo com o qual somos confrontados

1
00:40:59,400 --> 00:41:05,009
como está atualmente construída a estrada

1
00:41:02,969 --> 00:41:07,980
que a IA está seguindo cabeças de um penhasco

1
00:41:05,009 --> 00:41:09,539
e precisamos mudar a direção que

1
00:41:07,980 --> 00:41:15,119
vamos para não levar o

1
00:41:09,539 --> 00:41:19,170
raça humana do penhasco que o Google adquiriu

1
00:41:15,119 --> 00:41:20,608
mente profunda<font color="

1
00:41:19,170 --> 00:41:24,088
opera como uma empresa semi-independente

1
00:41:20,608 --> 00:41:26,518
subsidiária do Google o que

1
00:41:24,088 --> 00:41:28,679
torna a mente profunda única é essa mente profunda

1
00:41:26,518 --> 00:41:32,008
está absolutamente focado em criar

1
00:41:28,679 --> 00:41:34,379
superinteligência digital, uma IA que é

1
00:41:32,009 --> 00:41:36,778
muito mais inteligente do que qualquer ser humano na terra

1
00:41:34,380 --> 00:41:39,150
e, em última análise, mais inteligente que todos os humanos

1
00:41:36,778 --> 00:41:41,159
na terra combinada isso vem das profundezas

1
00:41:39,150 --> 00:41:44,130
sistema de aprendizagem por reforço mental

1
00:41:41,159 --> 00:41:46,440
basicamente acorda como um bebê recém-nascido

1
00:41:44,130 --> 00:41:48,960
e é mostrada a tela de um Atari

1
00:41:46,440 --> 00:41:50,548
vídeo<font color="

1
00:41:48,960 --> 00:41:54,369
o videogame

1
00:41:50,548 --> 00:41:59,409
não sabe nada sobre objetos sobre

1
00:41:54,369 --> 00:42:00,640
movimento sobre o tempo só sabe que

1
00:41:59,409 --> 00:42:06,129
há uma imagem na tela e

1
00:42:00,639 --> 00:42:08,199
há uma pontuação, então se seu bebê acordou

1
00:42:06,130 --> 00:42:11,289
no dia em que nasceu e mais tarde

1
00:42:08,199 --> 00:42:15,009
tarde estava jogando 40 Atari diferentes

1
00:42:11,289 --> 00:42:17,109
videogames em um nível sobre-humano você

1
00:42:15,009 --> 00:42:20,528
ficaria com medo de você dizer meu amor

1
00:42:17,108 --> 00:42:24,788
está possuído, mande-o de volta para a linha profunda

1
00:42:20,528 --> 00:42:26,679
sistema pode vencer em qualquer jogo que puder

1
00:42:24,789 --> 00:42:30,190
já venceu todo o Atari original

1
00:42:26,679 --> 00:42:32,078
jogos<font color="

1
00:42:30,190 --> 00:42:39,068
jogos em SuperSpeed em menos de um

1
00:42:32,079 --> 00:42:40,690
minuto de profundidade o meu virou para outro

1
00:42:39,068 --> 00:42:43,509
desafio e o desafio era o jogo

1
00:42:40,690 --> 00:42:46,059
de Go, que as pessoas geralmente argumentam

1
00:42:43,509 --> 00:42:48,509
está além do poder dos computadores

1
00:42:46,059 --> 00:42:51,130
jogar com os melhores jogadores humanos

1
00:42:48,509 --> 00:42:55,659
primeiro eles desafiaram o movimento europeu

1
00:42:51,130 --> 00:43:00,099
campeão então eles desafiaram um coreano

1
00:42:55,659 --> 00:43:03,118
seja campeão<font color="

1
00:43:00,099 --> 00:43:05,410
ambas as vezes de uma forma marcante

1
00:43:03,119 --> 00:43:07,539
ele realmente escreve no New York Times

1
00:43:05,409 --> 00:43:10,348
anos atrás falando sobre como seria

1
00:43:07,539 --> 00:43:12,220
leva cem anos para vermos

1
00:43:10,349 --> 00:43:16,180
as pessoas dizem bem, você sabe, mas isso é

1
00:43:12,219 --> 00:43:18,038
ainda assim, apenas um pôquer de tabuleiro é um pôquer artístico

1
00:43:16,179 --> 00:43:20,139
envolve ler as pessoas que o poker envolve

1
00:43:18,039 --> 00:43:22,210
mentir blefando não é uma coisa exata

1
00:43:20,139 --> 00:43:24,308
isso nunca acontecerá, você conhece um computador

1
00:43:22,210 --> 00:43:26,650
<cor da fonte="

1
00:43:24,309 --> 00:43:28,660
jogadores de pôquer do mundo e levou

1
00:43:26,650 --> 00:43:32,650
sete dias para o computador iniciar

1
00:43:28,659 --> 00:43:34,118
demolindo as dunas para que o melhor pôquer

1
00:43:32,650 --> 00:43:35,710
jogador do mundo o melhor jogador de go

1
00:43:34,119 --> 00:43:38,289
no mundo e o padrão aqui é

1
00:43:35,710 --> 00:43:40,690
que a IA pode demorar um pouco para

1
00:43:38,289 --> 00:43:44,799
envolva seus tentáculos em torno de uma nova habilidade

1
00:43:40,690 --> 00:43:47,338
mas quando acontece, quando consegue, é

1
00:43:44,798 --> 00:43:47,338
imparável

1
00:43:50,260 --> 00:43:55,510
[Música]

1
00:43:52,329 --> 00:43:58,869
bleep minds AI como nível de administrador

1
00:43:55,510 --> 00:44:02,080
acesso aos servidores do Google para otimizar

1
00:43:58,869 --> 00:44:04,929
energia<font color="

1
00:44:02,079 --> 00:44:06,909
este pode ser um Trojan não intencional

1
00:44:04,929 --> 00:44:08,559
cavalo deepmind tem que ter completo

1
00:44:06,909 --> 00:44:10,420
controle dos datacenters com um

1
00:44:08,559 --> 00:44:12,070
pequena atualização de software que eu poderia

1
00:44:10,420 --> 00:44:13,809
assumir o controle total de tudo

1
00:44:12,070 --> 00:44:15,760
Sistema do Google, o que significa que eles podem fazer

1
00:44:13,809 --> 00:44:22,539
qualquer coisa dê uma olhada em todos os seus dados

1
00:44:15,760 --> 00:44:24,190
você faz qualquer coisa, estamos indo rapidamente

1
00:44:22,539 --> 00:44:25,690
rumo à superinteligência digital que

1
00:44:24,190 --> 00:44:28,480
excede em muito qualquer ser humano, não acho que seja

1
00:44:25,690 --> 00:44:30,190
muito óbvio que o problema é que não

1
00:44:28,480 --> 00:44:32,079
realmente de repente atingiu o nível humano

1
00:44:30,190 --> 00:44:35,079
inteligência e diga ok, vamos<font color="

1
00:44:32,079 --> 00:44:36,309
pesquisa vai além do humano

1
00:44:35,079 --> 00:44:37,659
nível de inteligência no que é chamado

1
00:44:36,309 --> 00:44:41,829
superinteligência e isso é tudo

1
00:44:37,659 --> 00:44:43,899
mais inteligente do que nós, IA no super-humano

1
00:44:41,829 --> 00:44:46,989
nível se tivermos sucesso sem será por

1
00:44:43,900 --> 00:44:48,940
de longe a invenção mais poderosa que já tivemos

1
00:44:46,989 --> 00:44:50,729
já feito e a última dimensão que já

1
00:44:48,940 --> 00:44:53,130
tem que fazer

1
00:44:50,730 --> 00:44:55,740
e se criarmos uma IA que seja mais inteligente do que

1
00:44:53,130 --> 00:44:57,900
nós temos que estar abertos à possibilidade

1
00:44:55,739 --> 00:45:02,969
que podemos realmente perder o controle para

1
00:44:57,900 --> 00:45:04,829
digamos que você dê um pouco

1
00:45:02,969 --> 00:45:07,409
objetivo como se você estivesse com câncer e então

1
00:45:04,829 --> 00:45:09,329
você descobre<font color="

1
00:45:07,409 --> 00:45:10,739
fazer isso está realmente em conflito

1
00:45:09,329 --> 00:45:12,769
com muitas outras coisas que você se importa

1
00:45:10,739 --> 00:45:12,769
sobre

1
00:45:12,858 --> 00:45:17,048
ai não precisa ser mau para destruir

1
00:45:15,228 --> 00:45:19,808
humanidade

1
00:45:17,048 --> 00:45:22,119
se a IA tiver um objetivo e a humanidade apenas

1
00:45:19,809 --> 00:45:23,559
acontece que está no caminho que irá destruir

1
00:45:22,119 --> 00:45:24,818
ele para a humanidade como uma questão de

1
00:45:23,559 --> 00:45:26,890
claro sem nem pensar nisso não

1
00:45:24,818 --> 00:45:29,438
ressentimentos é como se estivéssemos

1
00:45:26,889 --> 00:45:31,629
construir uma estrada e um formigueiro acontece

1
00:45:29,438 --> 00:45:34,418
estar no caminho que não odiamos formigas

1
00:45:31,630 --> 00:45:37,019
estamos apenas construindo uma estrada e então

1
00:45:34,418 --> 00:45:37,018
adeus<font color="

1
00:45:38,469 --> 00:45:43,269
é tentador descartar essas preocupações

1
00:45:40,989 --> 00:45:46,299
porque é algo que pode

1
00:45:43,269 --> 00:45:49,480
acontecer em algumas décadas ou 100 anos, então

1
00:45:46,300 --> 00:45:51,280
por que se preocupar, mas se você voltar para

1
00:45:49,480 --> 00:45:53,740
11 de setembro de 1933

1
00:45:51,280 --> 00:45:56,200
Ernest Rutherford quem é o mais bem

1
00:45:53,739 --> 00:45:58,598
conhecido físico nuclear de sua época disse

1
00:45:56,199 --> 00:45:59,980
que a possibilidade de algum dia extrair

1
00:45:58,599 --> 00:46:01,720
quantidades úteis de energia do

1
00:45:59,980 --> 00:46:03,240
transmutação de átomos como ele a chamou

1
00:46:01,719 --> 00:46:06,279
era luar

1
00:46:03,239 --> 00:46:08,469
na manhã seguinte Leo Szilard, que é muito

1
00:46:06,280 --> 00:46:11,140
mais jovem<font color="

1
00:46:08,469 --> 00:46:13,328
realmente irritado e descobri como

1
00:46:11,139 --> 00:46:14,049
fazer uma reação nuclear em cadeia apenas alguns

1
00:46:13,329 --> 00:46:17,849
meses depois

1
00:46:14,050 --> 00:46:17,849
[Música]

1
00:46:20,659 --> 00:46:26,069
gastamos mais de dois bilhões

1
00:46:23,489 --> 00:46:29,639
dólares na maior ciência

1
00:46:26,070 --> 00:46:31,680
apostar na história, então quando as pessoas dizem

1
00:46:29,639 --> 00:46:32,940
que, ah, isso está tão longe no futuro

1
00:46:31,679 --> 00:46:35,190
não precisamos nos preocupar com isso

1
00:46:32,940 --> 00:46:37,349
eles podem ser apenas três quatro

1
00:46:35,190 --> 00:46:38,909
avanços dessa magnitude que

1
00:46:37,349 --> 00:46:41,940
nos levará daqui para super

1
00:46:38,909 --> 00:46:44,969
máquinas inteligentes se for preciso

1
00:46:41,940 --> 00:46:47,909
<cor da fonte="

1
00:46:44,969 --> 00:46:51,480
benéfico, então devemos começar hoje

1
00:46:47,909 --> 00:46:53,159
não no último segundo, quando alguns caras

1
00:46:51,480 --> 00:46:58,769
bebendo Red Bull decide virar o

1
00:46:53,159 --> 00:47:01,529
troque e teste o que temos cinco

1
00:46:58,769 --> 00:47:05,219
anos eu acho Superinteligência digital

1
00:47:01,530 --> 00:47:06,830
vai acontecer na minha vida uma coisa difícil

1
00:47:05,219 --> 00:47:09,259
por cento

1
00:47:06,829 --> 00:47:11,690
o que isso acontecer será cercado

1
00:47:09,260 --> 00:47:14,450
por um monte de pessoas que são realmente apenas

1
00:47:11,690 --> 00:47:15,950
entusiasmados com a tecnologia que desejam

1
00:47:14,449 --> 00:47:17,149
para ver o sucesso, mas eles não são

1
00:47:15,949 --> 00:47:28,579
antecipando que ele pode sair

1
00:47:17,150 --> 00:47:31,400
controle<font color="

1
00:47:28,579 --> 00:47:33,409
essa é uma pergunta incrível, eu não

1
00:47:31,400 --> 00:47:35,869
confie no meu computador se estiver ligado, eu aceito

1
00:47:33,409 --> 00:47:37,279
desligado como se estivesse desligado, eu ainda acho

1
00:47:35,869 --> 00:47:38,839
é tudo como você sabe como você realmente

1
00:47:37,280 --> 00:47:40,850
não pode simplesmente gostar das webcams que você não gosta

1
00:47:38,840 --> 00:47:44,059
sei que alguém pode aumentar isso, não

1
00:47:40,849 --> 00:47:48,199
sei que não confio no meu computador

1
00:47:44,059 --> 00:47:50,480
no meu telefone toda vez que eles me perguntam, nós

1
00:47:48,199 --> 00:47:55,909
envie suas informações para a Apple a cada

1
00:47:50,480 --> 00:47:59,030
vez que eu confio tanto no meu telefone, ok, então parte de

1
00:47:55,909 --> 00:48:00,440
é sim, eu confio porque é

1
00:47:59,030 --> 00:48:02,420
<cor da fonte="

1
00:48:00,440 --> 00:48:12,590
durante o dia e a forma como o nosso mundo é

1
00:48:02,420 --> 00:48:15,909
configurado sem computadores A confiança é uma

1
00:48:12,590 --> 00:48:15,910
experiência humana

1
00:48:21,500 --> 00:48:27,460
Tenho um paciente chegando com

1
00:48:24,289 --> 00:48:30,420
aneurisma intracraniano

1
00:48:27,460 --> 00:48:32,650
[Música]

1
00:48:30,420 --> 00:48:34,509
eles querem olhar nos meus olhos e saber

1
00:48:32,650 --> 00:48:38,369
que eles podem confiar nessa pessoa

1
00:48:34,509 --> 00:48:41,889
a vida deles não estou terrivelmente preocupado

1
00:48:38,369 --> 00:48:45,479
sobre qualquer coisa boa, parte disso é

1
00:48:41,889 --> 00:48:45,478
porque tenho confiança em você

1
00:48:51,190 --> 00:48:58,210
esse procedimento que estamos fazendo hoje 20

1
00:48:53,559 --> 00:48:59,650
anos<font color="

1
00:48:58,210 --> 00:49:16,329
só não tinha os materiais no

1
00:48:59,650 --> 00:49:24,599
tecnologias poderia ser mais

1
00:49:16,329 --> 00:49:28,089
difícil graças a Deus então a bobina está

1
00:49:24,599 --> 00:49:31,329
mal lá dentro agora é apenas um

1
00:49:28,088 --> 00:49:33,690
pena segurando-o, é um nervosismo

1
00:49:31,329 --> 00:49:33,690
hora

1
00:49:36,480 --> 00:49:42,909
estamos apenas no purgatório intelectual

1
00:49:39,340 --> 00:49:45,960
purgatório humanístico que uma IA pode conhecer

1
00:49:42,909 --> 00:49:45,960
exatamente o que fazer aqui

1
00:49:50,670 --> 00:49:56,050
colocamos a bobina no aneurisma, mas

1
00:49:53,769 --> 00:49:59,259
não estava tremendamente bem que eu soubesse

1
00:49:56,050 --> 00:50:02,530
<cor da fonte="

1
00:49:59,260 --> 00:50:05,890
risco de uma situação muito ruim eu elegi

1
00:50:02,530 --> 00:50:07,840
apenas trazê-la de volta por causa da minha

1
00:50:05,889 --> 00:50:09,819
relacionamento com ela e conhecer o

1
00:50:07,840 --> 00:50:12,309
dificuldades de entrar e ter o

1
00:50:09,820 --> 00:50:14,140
procedimento eu considero as coisas quando eu

1
00:50:12,309 --> 00:50:17,679
deve considerar apenas o mais seguro possível

1
00:50:14,139 --> 00:50:19,239
caminho para alcançar o sucesso bem, eu tive que

1
00:50:17,679 --> 00:50:22,750
ficar ali por 10 minutos agonizando

1
00:50:19,239 --> 00:50:25,000
sobre isso o computador não sente nada

1
00:50:22,750 --> 00:50:25,480
o computador apenas faz o que deveria

1
00:50:25,000 --> 00:50:26,449
fazer

1
00:50:25,480 --> 00:50:28,949
cada vez melhor

1
00:50:26,449 --> 00:50:38,129
[Música]

1
00:50:28,949 --> 00:50:39,609
<cor da fonte="

1
00:50:38,130 --> 00:50:43,530
seja compassivo

1
00:50:39,610 --> 00:50:45,690
[Música]

1
00:50:43,530 --> 00:50:51,360
Quero dizer, é a pergunta de todos sobre

1
00:50:45,690 --> 00:50:54,420
AI somos a única personificação de

1
00:50:51,360 --> 00:50:56,579
humanidade e é um exagero para nós

1
00:50:54,420 --> 00:51:01,250
aceitar que uma máquina pode ser

1
00:50:56,579 --> 00:51:01,250
compassivo e amoroso dessa maneira

1
00:51:01,469 --> 00:51:07,789
[Música]

1
00:51:05,329 --> 00:51:10,380
parte de mim não acredita em magia, mas

1
00:51:07,789 --> 00:51:12,659
parte de mim tem fé que existe

1
00:51:10,380 --> 00:51:14,640
algo além da soma das partes se

1
00:51:12,659 --> 00:51:17,940
há pelo menos uma unidade em nosso

1
00:51:14,639 --> 00:51:20,509
ancestralidade compartilhada nossa biologia compartilhada nossa

1
00:51:17,940 --> 00:51:20,510
história compartilhada

1
00:51:20,920 --> 00:51:28,999
alguma conexão aí<font color="

1
00:51:23,920 --> 00:51:28,999
[Música]

1
00:51:30,869 --> 00:51:34,829
então você tem o outro lado disso

1
00:51:33,090 --> 00:51:37,250
é que o computador sabe que está consciente

1
00:51:34,829 --> 00:51:41,250
ou pode estar consciente ou se importa

1
00:51:37,250 --> 00:51:43,969
é preciso estar consciente, é

1
00:51:41,250 --> 00:51:43,969
preciso estar ciente

1
00:51:44,369 --> 00:51:55,759
[Música]

1
00:51:52,250 --> 00:51:58,369
Eu não acho que um robô possa alguma vez

1
00:51:55,760 --> 00:51:59,230
estar consciente, a menos que eles o tenham programado

1
00:51:58,369 --> 00:52:04,940
daquele jeito

1
00:51:59,230 --> 00:52:06,409
consciente, não, não, não, quero dizer, acho que um

1
00:52:04,940 --> 00:52:08,059
robô poderia ser programado para ser

1
00:52:06,409 --> 00:52:11,629
consciente de como eles programam para fazer

1
00:52:08,059 --> 00:52:13,670
todo o resto é outra grande parte

1
00:52:11,630 --> 00:52:17,920
<cor da fonte="

1
00:52:13,670 --> 00:52:17,920
torná-los conscientes e fazê-los sentir

1
00:52:22,579 --> 00:52:29,720
em 2005, começamos a tentar construir

1
00:52:26,119 --> 00:52:29,720
máquinas com autoconsciência

1
00:52:33,099 --> 00:52:39,230
esse robô para começar não sabia

1
00:52:35,750 --> 00:52:45,590
o que era tudo o que ele sabia é que

1
00:52:39,230 --> 00:52:47,210
precisava fazer algo como percorrer

1
00:52:45,590 --> 00:52:51,110
tentativa e erro e descobrir como

1
00:52:47,210 --> 00:52:56,150
ande usando sua imaginação e então

1
00:52:51,110 --> 00:52:58,610
foi embora e então fizemos algo

1
00:52:56,150 --> 00:53:01,269
muito cruel, cortamos uma perna e

1
00:52:58,610 --> 00:53:01,269
assisti o que aconteceu

1
00:53:03,360 --> 00:53:10,170
no começo não sabia bem

1
00:53:05,969 --> 00:53:14,579
o que<font color="

1
00:53:10,170 --> 00:53:17,369
de um dia e depois começou a mancar e depois

1
00:53:14,579 --> 00:53:21,719
há um ano estávamos treinando um sistema de IA

1
00:53:17,369 --> 00:53:24,179
para uma demonstração ao vivo que queríamos

1
00:53:21,719 --> 00:53:25,889
mostre como agitamos todos esses objetos em

1
00:53:24,179 --> 00:53:28,679
frente da câmera sob a IA pode

1
00:53:25,889 --> 00:53:31,139
reconhecer que os objetos e por isso estamos

1
00:53:28,679 --> 00:53:33,029
preparando esta demonstração e tivemos um aparte

1
00:53:31,139 --> 00:53:37,219
tela essa capacidade de observar o que

1
00:53:33,030 --> 00:53:39,360
certos neurônios estavam respondendo e

1
00:53:37,219 --> 00:53:42,209
de repente percebemos que um dos

1
00:53:39,360 --> 00:53:44,340
neurônios<font color="

1
00:53:42,210 --> 00:53:48,329
rastreando nossos rostos enquanto estávamos nos movendo

1
00:53:44,340 --> 00:53:50,820
por aí agora, a coisa assustadora sobre isso

1
00:53:48,329 --> 00:53:54,630
é que nunca treinamos o sistema para

1
00:53:50,820 --> 00:53:58,039
reconhecer rostos humanos e ainda assim de alguma forma

1
00:53:54,630 --> 00:53:58,039
e aprenda a fazer isso

1
00:53:58,079 --> 00:54:02,500
mesmo que esses robôs sejam muito simples

1
00:54:00,429 --> 00:54:07,299
podemos ver que há algo mais em

1
00:54:02,500 --> 00:54:12,099
aí não é só programa então é isso

1
00:54:07,300 --> 00:54:17,050
apenas o começo, muitas vezes penso

1
00:54:12,099 --> 00:54:22,480
aquela praia em Kitty Hawk, o vôo de 1903

1
00:54:17,050 --> 00:54:24,550
por<font color="

1
00:54:22,480 --> 00:54:26,650
uma espécie de tela que afirma ser de madeira e

1
00:54:24,550 --> 00:54:28,450
ferro e sai do chão para quê

1
00:54:26,650 --> 00:54:31,269
um minuto e 20 segundos e ele está ganhando

1
00:54:28,449 --> 00:54:37,469
no dia anterior o levou de volta para baixo

1
00:54:31,269 --> 00:54:41,829
e foi por volta de 65 verões ou mais

1
00:54:37,469 --> 00:54:43,559
depois daquele momento que você tem um 747

1
00:54:41,829 --> 00:54:47,139
taking off from JFK

1
00:54:43,559 --> 00:54:47,139
[Música]

1
00:54:50,500 --> 00:54:54,739
com grande preocupação de alguém no

1
00:54:52,639 --> 00:54:56,838
avião pode ser ou não

1
00:54:54,739 --> 00:54:58,669
refeição dietética sem sal vai ser

1
00:54:56,838 --> 00:55:00,650
coming<font color="

1
00:54:58,670 --> 00:55:03,409
infraestrutura com agentes de viagens e

1
00:55:00,650 --> 00:55:08,900
controle de torre e é tudo casual, é

1
00:55:03,409 --> 00:55:10,909
toda parte do mundo agora até agora

1
00:55:08,900 --> 00:55:13,309
como viemos com máquinas e pensando

1
00:55:10,909 --> 00:55:16,009
resolver problemas, somos um Kittyhawk agora

1
00:55:13,309 --> 00:55:18,019
estamos no vento, temos nossos esfarrapados

1
00:55:16,010 --> 00:55:21,119
aviões de lona no ar

1
00:55:18,019 --> 00:55:21,119
[Música]

1
00:55:21,269 --> 00:55:26,610
mas o que acontece em cerca de 65 verões nós

1
00:55:25,050 --> 00:55:32,870
terá máquinas que estão atrás de você

1
00:55:26,610 --> 00:55:37,220
controle, devemos nos preocupar com isso, estou

1
00:55:32,869 --> 00:55:37,219
não tenho certeza se isso vai ajudar

1
00:55:40,568 --> 00:55:47,808
ninguém tem ideia hoje do que isso significa

1
00:55:43,880 --> 00:55:50,599
<cor da fonte="

1
00:55:47,809 --> 00:55:52,039
tal coisa há muitos inteligentes

1
00:55:50,599 --> 00:55:55,150
pessoas e eu temos muito

1
00:55:52,039 --> 00:55:58,970
respeito por eles, mas a verdade é

1
00:55:55,150 --> 00:56:00,950
máquinas são naturais, os psicopatas temem

1
00:55:58,969 --> 00:56:02,598
voltou ao mercado e caiu oito

1
00:56:00,949 --> 00:56:04,548
cem quase mil em um piscar de olhos

1
00:56:02,599 --> 00:56:05,809
o que eles fizeram foi capitulação plástica lá

1
00:56:04,548 --> 00:56:08,420
algumas pessoas estavam propondo que houvesse

1
00:56:05,809 --> 00:56:11,150
algum tipo de erro de dedo gordo, pegue o

1
00:56:08,420 --> 00:56:14,480
flash crash de 2010 em questão de

1
00:56:11,150 --> 00:56:16,910
minutos<font color="

1
00:56:14,480 --> 00:56:19,179
perdido no mercado de ações, o Dow caiu

1
00:56:16,909 --> 00:56:24,469
quase mil pontos em meia hora

1
00:56:19,179 --> 00:56:27,679
então o que deu errado naquele momento

1
00:56:24,469 --> 00:56:30,199
mais de 60% de todos os negócios que

1
00:56:27,679 --> 00:56:35,379
aconteceu na bolsa de valores estamos

1
00:56:30,199 --> 00:56:35,379
na verdade sendo iniciado por computadores

1
00:56:38,000 --> 00:56:42,289
o conto o que aconteceu no

1
00:56:39,739 --> 00:56:44,750
flash crash é que os algoritmos responderam

1
00:56:42,289 --> 00:56:46,609
para algoritmos e isso se agravou

1
00:56:44,750 --> 00:56:48,798
em si uma e outra e outra vez o

1
00:56:46,608 --> 00:56:51,528
questão de minutos em um ponto o

1
00:56:48,798 --> 00:56:54,139
mercado<font color="

1
00:56:51,528 --> 00:56:55,789
não há órgão regulador que possa

1
00:56:54,139 --> 00:56:58,548
adaptar-se com rapidez suficiente para evitar

1
00:56:55,789 --> 00:57:01,609
consequências potencialmente desastrosas

1
00:56:58,548 --> 00:57:05,268
IA operando em nossos sistemas financeiros

1
00:57:01,608 --> 00:57:06,889
eles são tão perfeitos para manipulação, vamos

1
00:57:05,268 --> 00:57:09,288
falar sobre a velocidade com que estamos

1
00:57:06,889 --> 00:57:11,088
vendo esse mercado ser uma teoria que é

1
00:57:09,289 --> 00:57:14,660
o tipo de IA descontrolada que assusta

1
00:57:11,088 --> 00:57:17,949
pessoas quando você lhes dá uma meta, elas

1
00:57:14,659 --> 00:57:20,179
perseguirá incansavelmente esse objetivo

1
00:57:17,949 --> 00:57:20,869
quantos programas de computador existem

1
00:57:20,179 --> 00:57:25,789
semelhança

1
00:57:20,869 --> 00:57:29,659
ninguém conhece um<font color="

1
00:57:25,789 --> 00:57:32,259
aspectos sobre IA em geral é que não

1
00:57:29,659 --> 00:57:35,359
realmente se entende como funciona

1
00:57:32,260 --> 00:57:39,380
mesmo as pessoas que criam IA realmente não

1
00:57:35,360 --> 00:57:41,960
entendo perfeitamente porque tem milhões

1
00:57:39,380 --> 00:57:43,700
de elementos torna-se completamente

1
00:57:41,960 --> 00:57:47,920
impossível para um ser humano

1
00:57:43,699 --> 00:57:47,919
entender o que está acontecendo

1
00:57:53,119 --> 00:57:58,409
A Microsoft criou este artificial

1
00:57:56,400 --> 00:58:03,300
inteligência chamada ti' no Twitter, que

1
00:57:58,409 --> 00:58:05,869
era um chatbot que eles começaram no

1
00:58:03,300 --> 00:58:08,220
manhã e Ty estava começando a twittar e

1
00:58:05,869 --> 00:58:12,119
aprendendo<font color="

1
00:58:08,219 --> 00:58:14,039
para ele de outras pessoas do Twitter porque

1
00:58:12,119 --> 00:58:17,130
algumas pessoas como uma rede de arrasto o atacaram

1
00:58:14,039 --> 00:58:18,840
dentro de 24 horas, o Microsoft Bob tornou-se

1
00:58:17,130 --> 00:58:22,079
uma pessoa terrível

1
00:58:18,840 --> 00:58:23,820
eles tiveram que literalmente puxar a amarra do

1
00:58:22,079 --> 00:58:29,400
net porque ele se transformou em um monstro

1
00:58:23,820 --> 00:58:32,430
uma raça misantrópica, pessoa horrível, você

1
00:58:29,400 --> 00:58:35,119
nunca quero me mover e ninguém tinha

1
00:58:32,429 --> 00:58:35,119
previu isso

1
00:58:35,699 --> 00:58:40,739
toda a ideia da IA é que não estamos

1
00:58:38,309 --> 00:58:44,760
dizendo exatamente como alcançar um

1
00:58:40,739 --> 00:58:46,519
dado resultado ou uma meta que ai se desenvolve

1
00:58:44,760 --> 00:58:49,920
próprio

1
00:58:46,519 --> 00:58:51,568
estamos preocupados com<font color="

1
00:58:49,920 --> 00:58:54,990
o mestre jogador de xadrez que irá

1
00:58:51,568 --> 00:58:58,019
nos superar, mas ei, não vou precisar

1
00:58:54,989 --> 00:59:00,929
na verdade, seja tão inteligente para ter massivamente

1
00:58:58,019 --> 00:59:02,969
efeitos perturbadores na civilização humana

1
00:59:00,929 --> 00:59:04,289
vimos ao longo do último século

1
00:59:02,969 --> 00:59:06,629
não é necessariamente necessário ser um gênio para

1
00:59:04,289 --> 00:59:09,000
derrubar a história em um determinado

1
00:59:06,630 --> 00:59:10,730
direção e não será preciso ser um gênio ai

1
00:59:09,000 --> 00:59:13,349
fazer a mesma coisa

1
00:59:10,730 --> 00:59:16,139
notícias eleitorais falsas geradas

1
00:59:13,349 --> 00:59:19,440
mais engajamento no Facebook do que no topo

1
00:59:16,139 --> 00:59:21,170
histórias reais O Facebook é realmente o

1
00:59:19,440 --> 00:59:25,079
elefante na sala

1
00:59:21,170 --> 00:59:29,789
<cor da fonte="

1
00:59:25,079 --> 00:59:32,789
para IA está mantendo os usuários engajados, mas não

1
00:59:29,789 --> 00:59:36,630
realmente se entende exatamente como isso

1
00:59:32,789 --> 00:59:38,730
A IA está atingindo esse objetivo. O Facebook está

1
00:59:36,630 --> 00:59:41,280
construindo uma elegante parede espelhada ao redor

1
00:59:38,730 --> 00:59:43,139
nos um espelho que podemos perguntar quem é o

1
00:59:41,280 --> 00:59:46,950
o mais justo de todos e responderá

1
00:59:43,139 --> 00:59:49,588
você você cronometra novamente você começa lentamente

1
00:59:46,949 --> 00:59:53,608
distorcer nosso senso de realidade distorcer nosso

1
00:59:49,588 --> 00:59:56,699
senso de política história eventos globais

1
00:59:53,608 --> 00:59:59,730
até determinar o que é verdade e o que é

1
00:59:56,699 --> 01:00:01,108
não é verdade é virtualmente impossível

1
00:59:59,730 --> 01:00:04,179
[Música]

1
01:00:01,108 --> 01:00:06,190
o problema é que a IA não

1
01:00:04,179 --> 01:00:09,789
entenda isso<font color="

1
01:00:06,190 --> 01:00:13,030
maximizar o envolvimento do usuário e alcançou

1
01:00:09,789 --> 01:00:16,480
que quase dois bilhões de pessoas gastam

1
01:00:13,030 --> 01:00:20,109
quase 1 hora em média por dia basicamente

1
01:00:16,480 --> 01:00:23,650
interagindo com a IA que está moldando

1
01:00:20,108 --> 01:00:26,318
sua experiência, até mesmo os engenheiros do Facebook

1
01:00:23,650 --> 01:00:28,660
eles não gostam de notícias falsas vamos muito mal

1
01:00:26,318 --> 01:00:30,190
negócio que eles querem se livrar do falso

1
01:00:28,659 --> 01:00:32,440
notícia é muito difícil de fazer

1
01:00:30,190 --> 01:00:34,420
porque como você reconhece que as notícias são

1
01:00:32,440 --> 01:00:38,559
falso se você não consegue ler tudo isso

1
01:00:34,420 --> 01:00:41,530
notícias pessoalmente há muito ativo

1
01:00:38,559 --> 01:00:44,290
desinformação e é embalado muito

1
01:00:41,530 --> 01:00:46,690
bem e isso<font color="

1
01:00:44,289 --> 01:00:49,000
em uma página do Facebook ou você ativa

1
01:00:46,690 --> 01:00:51,159
sua televisão não é terrivelmente

1
01:00:49,000 --> 01:00:54,068
sofisticado, mas é terrivelmente

1
01:00:51,159 --> 01:00:56,558
poderoso e o que isso significa é que o seu

1
01:00:54,068 --> 01:00:58,869
visão de mundo que há 20 anos era

1
01:00:56,559 --> 01:01:01,359
determinado se você assiste ao noticiário noturno

1
01:00:58,869 --> 01:01:03,039
por três redes diferentes, os três

1
01:01:01,358 --> 01:01:04,298
âncoras que se esforçam, mas tentam conseguir

1
01:01:03,039 --> 01:01:05,679
certo, você pode ter tido um pouco de preconceito

1
01:01:04,298 --> 01:01:07,059
de uma forma ou de outra, mas em grande parte

1
01:01:05,679 --> 01:01:10,808
falando, todos podemos concordar em uma

1
01:01:07,059 --> 01:01:13,599
objetivo<font color="

1
01:01:10,809 --> 01:01:15,869
desapareceu e o Facebook está completamente

1
01:01:13,599 --> 01:01:15,869
aniquilado

1
01:01:17,230 --> 01:01:21,699
se a maior parte da sua compreensão de como o

1
01:01:19,579 --> 01:01:24,529
obras mundiais são derivadas do Facebook

1
01:01:21,699 --> 01:01:26,899
facilitado por software algorítmico que

1
01:01:24,530 --> 01:01:29,660
tenta mostrar as novidades que você deseja

1
01:01:26,900 --> 01:01:32,119
veja, isso é uma coisa terrivelmente perigosa

1
01:01:29,659 --> 01:01:35,750
e a ideia de que não definimos apenas

1
01:01:32,119 --> 01:01:38,869
que em movimento, mas permitiu má-fé

1
01:01:35,750 --> 01:01:45,139
atores tenham acesso a essas informações

1
01:01:38,869 --> 01:01:46,579
é uma receita para o desastre, acho que é

1
01:01:45,139 --> 01:01:49,539
<cor da fonte="

1
01:01:46,579 --> 01:01:52,549
tentando manipular o mundo com IA

1
01:01:49,539 --> 01:01:54,340
2016 foi um exemplo perfeito de

1
01:01:52,550 --> 01:01:56,180
eleição onde havia muita IA

1
01:01:54,340 --> 01:01:58,850
produzindo muitas notícias falsas e

1
01:01:56,179 --> 01:02:02,449
distribuí-lo para um propósito para um

1
01:01:58,849 --> 01:02:05,119
resultado, senhoras e senhores, honoráveis

1
01:02:02,449 --> 01:02:07,279
colegas, tenho o privilégio de falar com

1
01:02:05,119 --> 01:02:09,559
você hoje sobre o poder do big data

1
01:02:07,280 --> 01:02:12,410
e psicografia nas eleições

1
01:02:09,559 --> 01:02:15,049
processo e especificamente para falar sobre

1
01:02:12,409 --> 01:02:16,940
<cor da fonte="

1
01:02:15,050 --> 01:02:20,360
Campanha primária presidencial de Cruz

1
01:02:16,940 --> 01:02:22,130
A análise de Cambridge surgiu silenciosamente como um

1
01:02:20,360 --> 01:02:24,890
empresa que de acordo com sua própria altura

1
01:02:22,130 --> 01:02:28,010
e tem a capacidade de usar isso

1
01:02:24,889 --> 01:02:32,690
enorme quantidade de dados para

1
01:02:28,010 --> 01:02:35,420
afetar a mudança social em 2016, eles tiveram

1
01:02:32,690 --> 01:02:37,970
três grandes clientes Ted Cruz foi um dos

1
01:02:35,420 --> 01:02:40,940
deles é fácil esquecer que apenas 18

1
01:02:37,969 --> 01:02:42,409
meses atrás, o senador Cruz foi um dos

1
01:02:40,940 --> 01:02:45,619
menos<font color="

1
01:02:42,409 --> 01:02:48,559
nomeação então o que não foi possível

1
01:02:45,619 --> 01:02:51,170
talvez uns 10 ou 15 anos atrás foi isso

1
01:02:48,559 --> 01:02:53,539
você pode enviar notícias falsas exatamente para o

1
01:02:51,170 --> 01:02:55,610
pessoas para quem você deseja enviá-lo e

1
01:02:53,539 --> 01:02:58,489
então você poderia realmente ver como ele ou

1
01:02:55,610 --> 01:03:00,800
ela reage no Facebook e depois ajusta

1
01:02:58,489 --> 01:03:03,259
essas informações de acordo com o

1
01:03:00,800 --> 01:03:05,390
feedback que você recebeu e então você pode

1
01:03:03,260 --> 01:03:08,360
comece a desenvolver uma espécie de tempo real

1
01:03:05,389 --> 01:03:10,519
gestão de uma população neste caso

1
01:03:08,360 --> 01:03:13,130
nos concentramos em um grupo para o qual ligamos

1
01:03:10,519 --> 01:03:15,769
persuasão estas são pessoas que são

1
01:03:13,130 --> 01:03:17,599
definitivamente<font color="

1
01:03:15,769 --> 01:03:19,340
eles precisam se mover do centro para

1
01:03:17,599 --> 01:03:20,989
um pouco mais para a direita em

1
01:03:19,340 --> 01:03:23,750
para apoiar Cruz eles precisam de um

1
01:03:20,989 --> 01:03:26,149
mensagem de persuasão direitos de armas que eu tenho

1
01:03:23,750 --> 01:03:27,079
selecionado que estreita ligeiramente o campo

1
01:03:26,150 --> 01:03:29,568
mais e

1
01:03:27,079 --> 01:03:31,160
sabemos que precisamos de uma mensagem sobre a arma

1
01:03:29,568 --> 01:03:33,528
direitos, precisa ser uma persuasão

1
01:03:31,159 --> 01:03:35,478
mensagem e precisa ser matizada

1
01:03:33,528 --> 01:03:37,518
de acordo com a certa personalidade

1
01:03:35,478 --> 01:03:40,368
que nos interessa através das redes sociais

1
01:03:37,518 --> 01:03:42,468
mídia há uma quantidade infinita de

1
01:03:40,369 --> 01:03:44,778
<cor da fonte="

1
01:03:42,469 --> 01:03:47,269
pessoa que temos em algum lugar perto de quatro

1
01:03:44,778 --> 01:03:49,909
ou cinco mil pontos de dados em cada

1
01:03:47,268 --> 01:03:53,268
adulto nos Estados Unidos é sobre

1
01:03:49,909 --> 01:03:55,848
visando o indivíduo é como um

1
01:03:53,268 --> 01:03:57,828
arma que pode ser usada de forma totalmente

1
01:03:55,849 --> 01:03:59,900
direção errada esse é o problema

1
01:03:57,829 --> 01:04:02,568
todos esses dados é quase como se

1
01:03:59,900 --> 01:04:05,690
construímos a bala antes de construirmos a arma

1
01:04:02,568 --> 01:04:08,268
Ted Cruz empregou nossos dados

1
01:04:05,690 --> 01:04:12,259
insights comportamentais, ele começou a partir de um

1
01:04:08,268 --> 01:04:17,118
base de<font color="

1
01:04:12,259 --> 01:04:18,978
e aumento constante, mas firme, para acima de 35%

1
01:04:17,119 --> 01:04:20,959
tornando-o obviamente o segundo mais

1
01:04:18,978 --> 01:04:23,568
ameaçando candidato na corrida agora

1
01:04:20,958 --> 01:04:26,389
claramente a campanha Cruz acabou agora

1
01:04:23,568 --> 01:04:28,338
mas o que posso dizer é que do

1
01:04:26,389 --> 01:04:30,588
dois candidatos restantes neste

1
01:04:28,338 --> 01:04:36,228
eleição, um deles está usando esses

1
01:04:30,588 --> 01:04:39,259
tecnologias que Donald Trump faz solenemente

1
01:04:36,228 --> 01:04:43,778
juro que executarei fielmente o

1
01:04:39,259 --> 01:04:43,778
gabinete do presidente dos Estados Unidos

1
01:04:44,260 --> 01:04:47,449
[Música]

1
01:04:48,958 --> 01:04:54,969
eleições são exercícios marginais<font color="

1
01:04:52,059 --> 01:05:00,339
usar uma IA muito sofisticada para

1
01:04:54,969 --> 01:05:02,438
ter um impacto desproporcional antes

1
01:05:00,338 --> 01:05:06,099
Trump quebra, era outro suposto

1
01:05:02,438 --> 01:05:09,788
cliente bem em 20 minutos para as 5 podemos

1
01:05:06,099 --> 01:05:11,439
digamos agora a decisão tomada em 1975 por

1
01:05:09,789 --> 01:05:14,919
este país aderir ao mercado comum

1
01:05:11,438 --> 01:05:18,998
foi revertido por este referendo para

1
01:05:14,918 --> 01:05:21,699
deixar a UE Cambridge analítica a

1
01:05:18,998 --> 01:05:24,158
supostamente usa IA para passar por dois dos

1
01:05:21,699 --> 01:05:28,019
os pedaços de terra que mais tremem

1
01:05:24,159 --> 01:05:30,429
mudança política nos últimos 50 anos

1
01:05:28,018 --> 01:05:32,379
estes são acontecimentos marcantes e se

1
01:05:30,429 --> 01:05:34,659
acredite no hype que eles estão conectados

1
01:05:32,380 --> 01:05:37,119
diretamente para um software

1
01:05:34,659 --> 01:05:39,400
essencialmente criado por um professor da

1
01:05:37,119 --> 01:05:41,590
Stanford

1
01:05:39,400 --> 01:05:45,160
[Música]

1
01:05:41,590 --> 01:05:47,380
em 2013 eu descrevi o que

1
01:05:45,159 --> 01:05:49,349
eles estão fazendo é possível e avisado

1
01:05:47,380 --> 01:05:52,960
contra isso acontecer no futuro

1
01:05:49,349 --> 01:05:54,549
na época em que temos Kasinsky era jovem

1
01:05:52,960 --> 01:05:57,070
Pesquisador polonês que trabalha no

1
01:05:54,550 --> 01:06:00,789
centro psicométrico, então o que Michael tinha

1
01:05:57,070 --> 01:06:04,200
feito foi reunir os maiores dados de sempre

1
01:06:00,789 --> 01:06:07,349
conjunto de como as pessoas se comportaram no Facebook

1
01:06:04,199 --> 01:06:09,789
<cor da fonte="

1
01:06:07,349 --> 01:06:12,460
traços psicológicos, como personalidade

1
01:06:09,789 --> 01:06:15,489
opiniões políticas de inteligência e assim por diante

1
01:06:12,460 --> 01:06:18,360
agora, tradicionalmente, essas características eram

1
01:06:15,489 --> 01:06:20,439
medido usando testes e questionadores

1
01:06:18,360 --> 01:06:21,970
testes de personalidade são a coisa mais benigna

1
01:06:20,440 --> 01:06:23,050
você poderia pensar em algo

1
01:06:21,969 --> 01:06:26,469
isso não necessariamente tem muito

1
01:06:23,050 --> 01:06:29,019
utilidade certa, nossa ideia era que, em vez disso

1
01:06:26,469 --> 01:06:30,489
de testes e questionadores poderíamos simplesmente

1
01:06:29,019 --> 01:06:32,610
veja as pegadas digitais de

1
01:06:30,489 --> 01:06:36,869
comportamentos que todos nós vivemos por trás

1
01:06:32,610 --> 01:06:40,120
para entender a abertura e a consciência

1
01:06:36,869 --> 01:06:42,579
neuroticismo<font color="

1
01:06:40,119 --> 01:06:44,769
dados como onde você mora, qual clube

1
01:06:42,579 --> 01:06:47,529
associações em que você se inscreveu em qual academia você

1
01:06:44,769 --> 01:06:50,110
vá para lá, na verdade, existem mercados

1
01:06:47,530 --> 01:06:51,519
para dados pessoais, podemos

1
01:06:50,110 --> 01:06:54,490
descubra muita coisa sobre o que você é

1
01:06:51,519 --> 01:06:58,239
vou fazer com base em um conjunto muito pequeno

1
01:06:54,489 --> 01:07:01,149
de informações que estamos treinando profundamente

1
01:06:58,239 --> 01:07:03,869
redes de aprendizagem em ambiente justo e íntimo

1
01:07:01,150 --> 01:07:07,980
negocia as opiniões políticas das pessoas

1
01:07:03,869 --> 01:07:12,779
personalidade inteligência orientação sexual

1
01:07:07,980 --> 01:07:12,780
apenas a partir de uma imagem do rosto de alguém

1
01:07:17,530 --> 01:07:22,120
agora pense em países que não são

1
01:07:19,480 --> 01:07:24,400
<cor da fonte="

1
01:07:22,119 --> 01:07:26,099
revelar as opiniões religiosas das pessoas ou

1
01:07:24,400 --> 01:07:29,860
opiniões políticas ou orientação sexual

1
01:07:26,099 --> 01:07:32,909
baseado apenas em fotos de perfil

1
01:07:29,860 --> 01:07:40,950
poderia ser literalmente uma questão de vida e

1
01:07:32,909 --> 01:07:40,949
morte, acho que não há como voltar atrás

1
01:07:42,150 --> 01:07:49,019
você sabe o que é o teste de Turing

1
01:07:46,599 --> 01:07:51,190
quando um humano interage com um computador

1
01:07:49,019 --> 01:07:54,099
e se o humano não sabe que eles estão

1
01:07:51,190 --> 01:07:58,389
interagindo com um computador o teste é

1
01:07:54,099 --> 01:07:59,799
passou e nos próximos dias você estará

1
01:07:58,389 --> 01:08:01,869
será o componente humano no

1
01:07:59,800 --> 01:08:05,289
Teste de Turing sagrado

1
01:08:01,869 --> 01:08:07,049
isso mesmo Kayla<font color="

1
01:08:05,289 --> 01:08:10,809
esse teste foi aprovado

1
01:08:07,050 --> 01:08:12,960
você está no centro do maior

1
01:08:10,809 --> 01:08:15,250
evento científico na história do homem

1
01:08:12,960 --> 01:08:18,850
se você criou uma máquina consciente

1
01:08:15,250 --> 01:08:21,539
não é a história do homem que é a

1
01:08:18,850 --> 01:08:21,539
história dos deuses

1
01:08:23,260 --> 01:08:29,509
[Música]

1
01:08:27,288 --> 01:08:31,929
é quase como se a tecnologia fosse um jardim

1
01:08:29,509 --> 01:08:31,929
por si só

1
01:08:33,779 --> 01:08:40,089
como o clima, não podemos impactá-lo, nós

1
01:08:36,479 --> 01:08:45,639
não podemos desacelerar, não podemos pará-lo

1
01:08:40,088 --> 01:08:47,920
nos sentimos impotentes se pensarmos que Deus é

1
01:08:45,640 --> 01:08:49,500
uma quantidade ilimitada de inteligência

1
01:08:47,920 --> 01:08:52,210
o mais próximo que podemos chegar disso é

1
01:08:49,500 --> 01:08:54,338
evoluindo<font color="

1
01:08:52,210 --> 01:08:58,619
com a inteligência artificial que estamos

1
01:08:54,338 --> 01:09:00,489
criando hoje nossos computadores telefones

1
01:08:58,619 --> 01:09:04,180
aplicações nos dão sobre-humanos

1
01:09:00,489 --> 01:09:06,929
capacidade, como diz a velha máxima se

1
01:09:04,180 --> 01:09:06,930
você não pode vencê-los, junte-se a eles

1
01:09:07,288 --> 01:09:12,809
trata-se de uma parceria homem-máquina que eu

1
01:09:10,130 --> 01:09:14,849
significa que já vemos como você conhece nosso

1
01:09:12,809 --> 01:09:16,380
telefones, por exemplo, funcionam como memória

1
01:09:14,849 --> 01:09:17,969
prótese né não preciso

1
01:09:16,380 --> 01:09:19,219
lembre-se mais do seu número de telefone

1
01:09:17,969 --> 01:09:22,288
porque está no meu telefone

1
01:09:19,219 --> 01:09:24,088
trata-se de máquinas aumentando<font color="

1
01:09:22,288 --> 01:09:26,939
habilidades em vez de gostar completamente

1
01:09:24,088 --> 01:09:28,318
deslocando-os se você olhar para todos os

1
01:09:26,939 --> 01:09:30,118
objetos que deram o salto

1
01:09:28,319 --> 01:09:34,739
analógico para digital nos últimos 20 anos

1
01:09:30,118 --> 01:09:37,139
é muito, somos o último objeto analógico

1
01:09:34,738 --> 01:09:38,338
no universo digital e o problema

1
01:09:37,139 --> 01:09:41,940
com isso, claro, é que os dados

1
01:09:38,338 --> 01:09:45,778
entrada e saída é muito limitada, é isso

1
01:09:41,939 --> 01:09:47,158
são esses nossos olhos que são muito bons

1
01:09:45,779 --> 01:09:50,969
somos capazes de absorver muito visual

1
01:09:47,158 --> 01:09:54,238
informação qual é a nossa saída de informação

1
01:09:50,969 --> 01:09:56,130
é muito, muito, muito baixo, a razão pela qual isso é

1
01:09:54,238 --> 01:09:58,678
<cor da fonte="

1
01:09:56,130 --> 01:10:01,349
onde a IA está desempenhando um papel mais proeminente

1
01:09:58,679 --> 01:10:03,868
papel nas sociedades, queremos boas maneiras de

1
01:10:01,349 --> 01:10:07,250
interagir com esta tecnologia para que ela

1
01:10:03,868 --> 01:10:07,250
acaba nos aumentando

1
01:10:09,130 --> 01:10:17,079
Eu acho que é extremamente importante para a IA

1
01:10:10,840 --> 01:10:19,930
não o outro, devemos ser nós e eu poderia

1
01:10:17,079 --> 01:10:21,939
estar errado sobre o que estou dizendo, estou

1
01:10:19,930 --> 01:10:24,890
certamente aberto a ideias ou qualquer um pode

1
01:10:21,939 --> 01:10:26,629
sugerir um caminho que seja melhor

1
01:10:24,890 --> 01:10:31,030
mas acho que realmente vamos ter que

1
01:10:26,630 --> 01:10:31,029
fundir-se com um IOP deixado para trás

1
01:10:31,109 --> 01:10:39,049
[Música]

1
01:10:36,618 --> 01:10:40,880
é difícil pensar em desconectar

1
01:10:39,050 --> 01:10:43,779
um sistema que é<font color="

1
01:10:40,880 --> 01:10:47,480
no planeta que está distribuído agora

1
01:10:43,779 --> 01:10:50,229
através do sistema solar você não pode simplesmente

1
01:10:47,479 --> 01:10:50,229
você sabe, desligue isso

1
01:10:50,288 --> 01:10:54,279
abrimos a caixa de Pandora, abrimos

1
01:10:52,118 --> 01:10:57,368
Forças desencadeadas que não podemos controlar

1
01:10:54,279 --> 01:10:59,109
não podemos parar, estamos no meio de

1
01:10:57,368 --> 01:11:00,279
essencialmente criando uma nova forma de vida em

1
01:10:59,109 --> 01:11:04,188
terra

1
01:11:00,279 --> 01:11:04,188
[Música]

1
01:11:06,130 --> 01:11:10,969
não sabemos o que acontece a seguir, não sabemos

1
01:11:08,929 --> 01:11:13,158
saber qual é a forma do intelecto de um

1
01:11:10,969 --> 01:11:16,038
máquina será quando esse intelecto for

1
01:11:13,158 --> 01:11:17,599
muito além das capacidades humanas, é apenas

1
01:11:16,038 --> 01:11:22,050
não é algo<font color="

1
01:11:17,600 --> 01:11:24,800
[Música]

1
01:11:22,050 --> 01:11:27,570
[Aplausos]

1
01:11:24,800 --> 01:11:29,369
o futuro menos assustador que posso imaginar é

1
01:11:27,569 --> 01:11:34,380
aquele em que pelo menos democratizamos

1
01:11:29,369 --> 01:11:36,569
IA porque se uma empresa ou pequeno grupo

1
01:11:34,380 --> 01:11:38,220
para que os gestores de pessoas desenvolvam

1
01:11:36,569 --> 01:11:39,609
superinteligência digital eles poderiam

1
01:11:38,220 --> 01:11:40,809
dominar o mundo

1
01:11:39,609 --> 01:11:42,549
[Música]

1
01:11:40,809 --> 01:11:46,239
pelo menos quando há um ditador malvado

1
01:11:42,550 --> 01:11:48,340
aquele humano vai morrer se não for por uma IA

1
01:11:46,238 --> 01:11:51,399
não haveria morte, eles olhariam

1
01:11:48,340 --> 01:11:54,489
para sempre e então você teria um imortal

1
01:11:51,399 --> 01:11:57,579
ditador do qual nunca poderemos escapar

1
01:11:54,489 --> 01:11:57,579
[Música]

1
01:12:10,930 --> 01:12:14,048
[Música]

1
01:12:19,479 --> 01:12:22,669
[Música]

1
01:12:28,310 --> 01:12:33,919
[Música]

1
01:12:36,270 --> 01:12:48,399
[Música]

1
01:13:12,380 --> 01:13:15,630
[Música]

1
01:13:17,529 --> 01:13:20,099
você

1
01:13:24,590 --> 01:13:27,699
[Música]

1
01:13:30,310 --> 01:13:33,659
[Música]

1
01:13:37,140 --> 01:13:53,560
[Música]

1
01:14:01,899 --> 01:14:05,339
[Música]

1
01:14:12,720 --> 01:14:19,159
[Música]

1
01:14:22,909 --> 01:14:33,170
[Música]

1
01:14:31,949 --> 01:14:52,929
[Aplausos]

1
01:14:33,170 --> 01:14:52,929
[Música]

1
01:15:00,229 --> 01:15:08,469
[Música]

1
01:15:14,829 --> 01:15:31,640
[Música]

1
01:15:39,329 --> 01:15:44,238
[Música]

1
01:15:57,850 --> 01:16:29,590
[Aplausos]

1
01:15:58,930 --> 01:16:29,590
[Música]

1
01:16:34,359 --> 01:16:42,478
[Música]

1
01:16:47,000 --> 01:16:52,939
[Música]

1
01:16:59,350 --> 01:17:33,329
[Música]

1
01:17:32,430 --> 01:17:38,050
[Aplausos]

1
01:17:33,329 --> 01:17:38,050
[Música]

1
01:17:39,579 --> 01:17:45,409
[Aplausos]

1
01:17:42,189 --> 01:17:45,409
[Música]



