1
00:00:35,838 --> 00:00:43,640
mi smo na rubu je svijet od

1
00:00:39,689 --> 00:00:47,009
sve intenzivnije sofisticiran

1
00:00:43,640 --> 00:00:49,439
tehnologija umjetne inteligencije je

1
00:00:47,009 --> 00:00:51,298
razvija mnogo brže od našeg društva

1
00:00:49,439 --> 00:00:53,750
ima sposobnost da nas zaštiti kao

1
00:00:51,298 --> 00:00:53,750
građana

1
00:00:57,079 --> 00:01:04,250
[Glazba]

1
00:01:01,990 --> 00:01:07,189
imate umreženu inteligenciju koja

1
00:01:04,250 --> 00:01:14,629
gleda nas zna sve o nama i

1
00:01:07,189 --> 00:01:17,299
počinje pokušavati promijeniti nas tehnologija je

1
00:01:14,629 --> 00:01:21,769
nikada nije dobro ili loše, to je ono s čim radimo

1
00:01:17,299 --> 00:01:22,969
tehnologija na kraju milijune

1
00:01:21,769 --> 00:01:24,920
ljudi će biti izbačeni

1
00:01:22,969 --> 00:01:26,939
poslova jer će njihove vještine

1
00:01:24,920 --> 00:01:35,019
biti zastario

1
00:01:26,939 --> 00:01:37,329
nezaposlenost bez obzira na<font color="

1
00:01:35,019 --> 00:01:40,039
boji se ili ne boji promjene je

1
00:01:37,329 --> 00:01:45,219
dolazi i nitko to ne može zaustaviti

1
00:01:40,040 --> 00:01:47,380
[Glazba]

1
00:01:45,219 --> 00:01:49,689
uložili smo ogromne količine novca i

1
00:01:47,379 --> 00:01:52,390
pa je razumljivo da je vojska

1
00:01:49,689 --> 00:01:55,149
s vlastitim željama će započeti

1
00:01:52,390 --> 00:01:57,370
koristiti ove tehnologije autonomno

1
00:01:55,150 --> 00:02:02,430
sustavi naoružanja doveli bi do globalnog

1
00:01:57,370 --> 00:02:02,430
utrka u naoružanju koja će biti konkurent nuklearnoj eri

1
00:02:02,909 --> 00:02:08,360
znamo koji je odgovor da hoće

1
00:02:05,159 --> 00:02:08,360
na kraju će nas ubiti

1
00:02:11,189 --> 00:02:17,829
ovi tehnološki skokovi će

1
00:02:13,629 --> 00:02:19,129
uroditi nevjerojatnim čudima i nevjerojatnim

1
00:02:17,830 --> 00:02:24,030
<boja fonta="

1
00:02:19,129 --> 00:02:24,030
[Glazba]

1
00:02:24,590 --> 00:02:32,280
stvorili smo ga pa mislim dok se krećemo

1
00:02:29,370 --> 00:02:36,060
naprijed će ova inteligencija sadržavati

1
00:02:32,280 --> 00:02:40,379
dijelovi nas ali mislim da je pitanje

1
00:02:36,060 --> 00:02:43,550
hoće li sadržavati dobre dijelove ili

1
00:02:40,379 --> 00:02:43,549
loši dijelovi

1
00:03:01,509 --> 00:03:04,649
[Glazba]

1
00:03:05,068 --> 00:03:09,009
preživjeli nazvali ratni Sud

1
00:03:08,348 --> 00:03:11,348
dan

1
00:03:09,009 --> 00:03:13,378
rekli su mi da se suočim s novim

1
00:03:11,348 --> 00:03:13,378
noćna mora

1
00:03:13,770 --> 00:03:19,560
protiv strojeva mislim da mi

1
00:03:16,919 --> 00:03:21,659
potpuno nas, mislim

1
00:03:19,560 --> 00:03:25,289
Hollywood je uspio ucijepiti

1
00:03:21,659 --> 00:03:27,780
javnosti protiv ovog pitanja

1
00:03:25,289 --> 00:03:30,810
ideja o strojevima koji će preuzeti

1
00:03:27,780 --> 00:03:35,939
<boja fonta="

1
00:03:30,810 --> 00:03:41,250
oh, žao mi je Dave, bojim se da ne mogu

1
00:03:35,939 --> 00:03:43,020
da al smo vikali vuk dovoljno puta

1
00:03:41,250 --> 00:03:44,699
javnost je prestala plaćati

1
00:03:43,020 --> 00:03:45,719
pažnju jer se osjeća kao znanost

1
00:03:44,699 --> 00:03:47,579
fikcija čak i sjediti ovdje razgovarati o

1
00:03:45,719 --> 00:03:50,189
sada se osjeća pomalo glupo

1
00:03:47,580 --> 00:03:53,370
pomalo kao o, ovo je artefakt

1
00:03:50,189 --> 00:03:55,859
nekog Cheeseball filma ogromna

1
00:03:53,370 --> 00:04:00,420
sve svoje vrijeme provodi razmišljajući o svijetu

1
00:03:55,860 --> 00:04:02,190
<boja fonta="

1
00:04:00,419 --> 00:04:04,250
javnost će biti zaslijepljena

1
00:04:02,189 --> 00:04:04,250
ovo

1
00:04:04,870 --> 00:04:07,960
[Glazba]

1
00:04:10,879 --> 00:04:17,279
odlučujući kao pojedinci

1
00:04:14,699 --> 00:04:21,930
sve više okružen strojem

1
00:04:17,279 --> 00:04:24,299
inteligencije nosimo ovaj džepni uređaj

1
00:04:21,930 --> 00:04:26,670
na dlanu kojim se koristimo

1
00:04:24,300 --> 00:04:29,340
donijeti nevjerojatan niz životnih odluka

1
00:04:26,670 --> 00:04:33,140
upravo sada potpomognuti skupom udaljenih

1
00:04:29,339 --> 00:04:33,139
algoritme koje ne razumijemo

1
00:04:34,730 --> 00:04:38,759
već su prilično iscrpljeni zbog

1
00:04:37,199 --> 00:04:43,620
ideja da možemo razgovarati s našim telefonom i

1
00:04:38,759 --> 00:04:45,469
to uglavnom razumije nas pet godina

1
00:04:43,620 --> 00:04:49,050
<boja fonta="

1
00:04:45,470 --> 00:04:51,510
robotski strojevi koji vide i govore i

1
00:04:49,050 --> 00:04:53,490
slušaj sve što je stvarno sada i ove

1
00:04:51,509 --> 00:04:57,779
tehnologije će fundamentalno

1
00:04:53,490 --> 00:05:00,439
promijeniti naše društvo sada imamo ovo

1
00:04:57,779 --> 00:05:03,209
veliko kretanje samovozećih automobila

1
00:05:00,439 --> 00:05:07,139
autonomna vožnja automobila može se kretati

1
00:05:03,209 --> 00:05:08,819
živote ljudi na bolje mjesto koje sam ja imao

1
00:05:07,139 --> 00:05:11,219
izgubio nekoliko članova obitelji

1
00:05:08,819 --> 00:05:13,379
uključujući moju majku moju majku i

1
00:05:11,220 --> 00:05:16,620
šogorica i njihova djeca – ja ne

1
00:05:13,379 --> 00:05:19,500
<boja fonta="

1
00:05:16,620 --> 00:05:22,590
gotovo eliminirati prometne nesreće s

1
00:05:19,500 --> 00:05:24,149
automatizacija 30 000 života samo u SAD-u

1
00:05:22,589 --> 00:05:26,099
oko milijun diljem svijeta po

1
00:05:24,149 --> 00:05:29,009
godine

1
00:05:26,100 --> 00:05:31,230
u zdravstvu rani pokazatelji su

1
00:05:29,009 --> 00:05:32,399
ime igre u tom prostoru tako da je

1
00:05:31,230 --> 00:05:35,670
drugo mjesto gdje se može spasiti

1
00:05:32,399 --> 00:05:38,399
nečiji život ovdje u grudima

1
00:05:35,670 --> 00:05:41,699
Centar za rak sve stvari koje

1
00:05:38,399 --> 00:05:44,209
radiolog mozga radi u dvije minute

1
00:05:41,699 --> 00:05:46,740
računalni bonus trenutno a

1
00:05:44,209 --> 00:05:49,409
računalo je pogledalo 1 milijun

1
00:05:46,740 --> 00:05:51,780
<boja fonta="

1
00:05:49,410 --> 00:05:56,720
trenutačno ga primjenjuje na ovu sliku

1
00:05:51,779 --> 00:05:59,219
tako da je medicinska primjena duboka

1
00:05:56,720 --> 00:06:00,660
još jedno stvarno uzbudljivo područje

1
00:05:59,220 --> 00:06:03,470
videći dosta razvoja i je

1
00:06:00,660 --> 00:06:06,990
zapravo razumijevanje našeg genetskog koda

1
00:06:03,470 --> 00:06:10,370
i koristeći to i za dijagnosticiranje bolesti

1
00:06:06,990 --> 00:06:10,370
i kreirati personalizirane tretmane

1
00:06:12,180 --> 00:06:16,350
primarna primjena svih ovih

1
00:06:14,370 --> 00:06:19,050
strojevi će biti proširiti naše vlastite

1
00:06:16,350 --> 00:06:21,120
inteligencija koju smo uspjeli napraviti

1
00:06:19,050 --> 00:06:24,329
sami smo pametniji i bit će bolje

1
00:06:21,120 --> 00:06:26,069
<boja fonta="

1
00:06:24,329 --> 00:06:29,099
zapravo ćemo razumjeti starenje ćemo biti

1
00:06:26,069 --> 00:06:30,870
u mogućnosti to zaustaviti stvarno nema ograničenja

1
00:06:29,100 --> 00:06:33,260
za što inteligentni strojevi mogu učiniti

1
00:06:30,870 --> 00:06:33,259
ljudski rod

1
00:06:36,300 --> 00:06:43,629
kako pametniji stroj ne bi bio a

1
00:06:39,160 --> 00:06:46,180
bolji stroj teško je točno reći

1
00:06:43,629 --> 00:06:48,930
kad sam počeo misliti da je to a

1
00:06:46,180 --> 00:06:48,930
pomalo naivno

1
00:06:49,189 --> 00:07:00,430
[Glazba]

1
00:06:57,060 --> 00:07:02,019
Stuart Russell u kojem je zapravo Bog

1
00:07:00,430 --> 00:07:03,788
polje umjetne inteligencije on

1
00:07:02,019 --> 00:07:06,188
napisao knjigu koju je gotovo svaki

1
00:07:03,788 --> 00:07:08,620
Sveučilište koristi koje sam znao reći da je to

1
00:07:06,189 --> 00:07:11,360
<boja fonta="

1
00:07:08,620 --> 00:07:14,050
to je PDF koji se najčešće krade

1
00:07:11,360 --> 00:07:17,060
[Glazba]

1
00:07:14,050 --> 00:07:19,759
umjetna inteligencija je stvaranje

1
00:07:17,060 --> 00:07:21,680
računalo pametno i s točke

1
00:07:19,759 --> 00:07:23,569
pogled javnosti ono što se računa kao AI jest

1
00:07:21,680 --> 00:07:25,430
samo nešto što je iznenađujuće

1
00:07:23,569 --> 00:07:28,509
inteligentan u usporedbi s onim što smo mislili

1
00:07:25,430 --> 00:07:33,019
računala bi obično mogla učiniti

1
00:07:28,509 --> 00:07:35,599
AI je polje istraživanja koje treba pokušati

1
00:07:33,019 --> 00:07:40,099
u osnovi simuliraju sve vrste ljudi

1
00:07:35,600 --> 00:07:41,600
mogućnosti nalazimo se u eri umjetne inteligencije Silicij

1
00:07:40,100 --> 00:07:44,390
<boja fonta="

1
00:07:41,600 --> 00:07:45,950
svijetla sjajna stvar bila je društvena

1
00:07:44,389 --> 00:07:48,110
umrežavanje na društvenim medijima tijekom posljednjeg

1
00:07:45,949 --> 00:07:50,899
desetljeću i prilično je jasno da malo ima

1
00:07:48,110 --> 00:07:53,000
okrene i počinje sa strojem

1
00:07:50,899 --> 00:07:55,609
učenje kada se osvrnemo na ovo

1
00:07:53,000 --> 00:07:57,439
trenutak što je bio prvi AI nije

1
00:07:55,610 --> 00:07:59,330
seksi i to nije nešto što smatramo

1
00:07:57,439 --> 00:08:02,600
filmove, ali bili biste izvrstan slučaj

1
00:07:59,329 --> 00:08:06,409
da je Google stvorio tražilicu ali

1
00:08:02,600 --> 00:08:08,030
<boja fonta="

1
00:08:06,410 --> 00:08:10,010
pitanje koje su željeli i dobiti odgovor

1
00:08:08,029 --> 00:08:12,769
oni to trebaju većina ljudi nije svjesna

1
00:08:10,009 --> 00:08:14,839
da je ono što Google radi zapravo a

1
00:08:12,769 --> 00:08:16,939
oblik umjetne inteligencije oni

1
00:08:14,839 --> 00:08:19,669
samo idi tamo oni upisuju nešto

1
00:08:16,939 --> 00:08:21,879
Google im daje odgovor na svaki

1
00:08:19,670 --> 00:08:24,110
tražimo treniramo da bude bolje

1
00:08:21,879 --> 00:08:25,759
ponekad upišemo pretragu i to

1
00:08:24,110 --> 00:08:29,300
govori nam odgovor što ste završili

1
00:08:25,759 --> 00:08:31,519
<boja fonta="

1
00:08:29,300 --> 00:08:33,320
predsjednik Kazahstana i to će samo

1
00:08:31,519 --> 00:08:35,049
reći ti da ne moraš ići u

1
00:08:33,320 --> 00:08:38,210
Nacionalna web stranica Kazahstana kako biste saznali

1
00:08:35,049 --> 00:08:40,789
nekada to nije mogao učiniti

1
00:08:38,210 --> 00:08:43,250
je zupčanici umjetne inteligencije iz

1
00:08:40,789 --> 00:08:46,069
sada kada pokušamo razumjeti hoćemo

1
00:08:43,250 --> 00:08:48,710
reci dobro kako nam nedostaje to je jedan od

1
00:08:46,070 --> 00:08:51,200
ove zapanjujuće proturječnosti koje smo

1
00:08:48,710 --> 00:08:53,150
suočavanje s Googleom i Facebookom uopće imaju

1
00:08:51,200 --> 00:08:55,970
izgradili su tvrtke dajući nam kao

1
00:08:53,149 --> 00:08:58,519
društvo<font color="

1
00:08:55,970 --> 00:09:02,330
cjenkati se nešto vade

1
00:08:58,519 --> 00:09:04,189
od nas u zamjenu ali ne znamo

1
00:09:02,330 --> 00:09:08,240
koji kod se izvodi na drugoj strani

1
00:09:04,190 --> 00:09:10,370
i zašto nemamo pojma da udara

1
00:09:08,240 --> 00:09:12,740
upravo na pitanje koliko bismo trebali

1
00:09:10,370 --> 00:09:18,278
vjerujte ovim strojevima

1
00:09:12,740 --> 00:09:21,169
Računala koristim doslovno za sve

1
00:09:18,278 --> 00:09:23,870
postoji toliko mnogo računalnih napredaka

1
00:09:21,169 --> 00:09:26,449
sada i to je postalo tako veliki dio

1
00:09:23,870 --> 00:09:28,039
naši životi jednostavno je nevjerojatno što a

1
00:09:26,450 --> 00:09:30,470
računalo<font color="

1
00:09:28,039 --> 00:09:33,769
računalo u torbici mislim kako

1
00:09:30,470 --> 00:09:36,170
super je što mislim da većina tehnologije

1
00:09:33,769 --> 00:09:39,620
ima za cilj olakšati stvari i

1
00:09:36,169 --> 00:09:42,559
jednostavnije za sve nas pa se nadam da ću

1
00:09:39,620 --> 00:09:45,850
samo ostaje fokus mislim da svi

1
00:09:42,559 --> 00:09:45,849
voli njihova računala

1
00:09:52,129 --> 00:10:00,590
ljudi ne shvaćaju da su stalno

1
00:09:54,769 --> 00:10:02,269
s kojima se pregovaraju strojevi gdje

1
00:10:00,590 --> 00:10:04,879
to je cijena proizvoda u vašem

1
00:10:02,269 --> 00:10:07,069
Amazon kolica da li možete dobiti na

1
00:10:04,879 --> 00:10:09,039
određeni let možete li

1
00:10:07,070 --> 00:10:11,780
rezervirati sobu u određenom hotelu

1
00:10:09,039 --> 00:10:13,339
ono što doživljavaš je stroj

1
00:10:11,779 --> 00:10:15,829
učenje algoritama koji<font color="

1
00:10:13,340 --> 00:10:18,700
da je osoba poput tebe spremna platiti

1
00:10:15,830 --> 00:10:21,829
dva centa više i mijenja cijenu

1
00:10:18,700 --> 00:10:21,829
[Glazba]

1
00:10:21,879 --> 00:10:28,179
sada računalo gleda na milijune ljudi

1
00:10:25,100 --> 00:10:31,790
istovremeno za vrlo suptilne uzorke

1
00:10:28,179 --> 00:10:34,669
možete uzeti naizgled nevini digitalni

1
00:10:31,789 --> 00:10:37,069
otiske stopala kao što je nečija lista pjesama na

1
00:10:34,669 --> 00:10:40,069
Spotify ili stvari na kojima su kupili

1
00:10:37,070 --> 00:10:42,530
Amazon, a zatim koristite algoritme za

1
00:10:40,070 --> 00:10:48,890
prevedite ovo na vrlo detaljan i

1
00:10:42,529 --> 00:10:50,959
postoji vrlo točan intimni profil

1
00:10:48,889 --> 00:10:53,389
dosje o svakom od nas koji je tako

1
00:10:50,960 --> 00:10:54,830
opsežan<font color="

1
00:10:53,389 --> 00:11:06,769
reći da znaju više o tebi

1
00:10:54,830 --> 00:11:08,240
nego tvoja majka glavni uzrok

1
00:11:06,769 --> 00:11:11,059
nedavno sam probio to nije samo

1
00:11:08,240 --> 00:11:13,759
da neki frajer na briljantnom uvidu

1
00:11:11,059 --> 00:11:16,279
lutka od sina ali jednostavno da imamo

1
00:11:13,759 --> 00:11:20,059
mnogo veće podatke za njihovu obuku i

1
00:11:16,279 --> 00:11:22,279
mnogo bolja računala u čemu je magija

1
00:11:20,059 --> 00:11:24,079
podaci to je gomila podataka

1
00:11:22,279 --> 00:11:27,169
Mislim, to su podaci koji nikada nisu postojali

1
00:11:24,080 --> 00:11:30,259
nikada prije nismo imali ove podatke

1
00:11:27,169 --> 00:11:33,099
stvorili smo tehnologije koje nam omogućuju

1
00:11:30,259 --> 00:11:35,990
uhvatiti ogromne količine informacija

1
00:11:33,100 --> 00:11:37,730
ako pomisliš na milijardu ćelija<font color="

1
00:11:35,990 --> 00:11:40,399
planet sa žiroskopima i

1
00:11:37,730 --> 00:11:42,620
akcelerometri i čitači otisaka prstiju

1
00:11:40,399 --> 00:11:44,328
spojite to s GPS-om i fotografijama

1
00:11:42,620 --> 00:11:46,940
uzimaju i tweetove koje šaljete

1
00:11:44,328 --> 00:11:50,000
svi odajemo ogromne količine

1
00:11:46,940 --> 00:11:51,680
podaci pojedinačno automobili koji voze je

1
00:11:50,000 --> 00:11:53,089
kamere na njima crpe informacije

1
00:11:51,679 --> 00:11:54,649
o svijetu oko sebe

1
00:11:53,089 --> 00:11:56,959
sateliti koji su sada u orbiti

1
00:11:54,649 --> 00:11:59,149
veličina tostera infracrveno o

1
00:11:56,958 --> 00:12:00,649
vegetacije na planeti dječaci koji

1
00:11:59,149 --> 00:12:03,429
su vani u oceanima poraz u

1
00:12:00,649 --> 00:12:03,429
klimatski modeli

1
00:12:06,139 --> 00:12:10,850
i<font color="

1
00:12:09,230 --> 00:12:14,990
informacije o geopolitičkom

1
00:12:10,850 --> 00:12:17,920
situacije u kojima je današnji svijet doslovno

1
00:12:14,990 --> 00:12:17,919
plivanje u ovim podacima

1
00:12:20,889 --> 00:12:26,870
još 2012. IBM je procijenio da an

1
00:12:25,519 --> 00:12:29,929
prosječno ljudsko biće

1
00:12:26,870 --> 00:12:33,409
ostavlja 500 megabajta digitalnog

1
00:12:29,929 --> 00:12:35,959
otiske stopala svaki dan ako želiš

1
00:12:33,409 --> 00:12:38,179
napravite sigurnosnu kopiju podataka u vrijednosti od samo jednog dana

1
00:12:35,960 --> 00:12:41,389
čovječanstvo proizvodi, a vi to ispisujete

1
00:12:38,179 --> 00:12:45,079
na dvostranom fontu veličine slova

1
00:12:41,389 --> 00:12:47,149
veličina 12 i složiš to bi

1
00:12:45,080 --> 00:12:51,399
dosezati od površine zemlje do

1
00:12:47,149 --> 00:12:54,860
Sunce četiri puta<font color="

1
00:12:51,399 --> 00:12:57,919
podaci sami po sebi nisu ni dobri ni zli

1
00:12:54,860 --> 00:13:00,050
kako se koristi na što se zapravo oslanjamo

1
00:12:57,919 --> 00:13:02,569
dobra volja tih ljudi i na

1
00:13:00,049 --> 00:13:05,000
politika tih tvrtki ne postoji

1
00:13:02,570 --> 00:13:07,850
pravni zahtjev kako mogu i

1
00:13:05,000 --> 00:13:12,379
trebao koristiti tu vrstu podataka koji mi

1
00:13:07,850 --> 00:13:14,180
je u središtu pitanja povjerenja

1
00:13:12,379 --> 00:13:16,028
sada postoji ogromna utrka za stvaranjem

1
00:13:14,179 --> 00:13:18,528
strojevi koji su pametni poput ljudi

1
00:13:16,028 --> 00:13:19,939
Google oni rade na onome što je stvarno

1
00:13:18,528 --> 00:13:21,200
<boja fonta="

1
00:13:19,940 --> 00:13:23,149
umjetna inteligencija koju imaju

1
00:13:21,200 --> 00:13:25,250
najviše novca oni imaju najviše talenta

1
00:13:23,149 --> 00:13:28,940
kupuju AI tvrtke i

1
00:13:25,250 --> 00:13:30,950
robotske tvrtke na koje ljudi još uvijek misle

1
00:13:28,940 --> 00:13:32,870
Gulas tražilicu i njihov email

1
00:13:30,950 --> 00:13:35,930
pružatelja usluga i puno drugih stvari koje

1
00:13:32,870 --> 00:13:40,789
koristimo svakodnevno ali iza toga

1
00:13:35,929 --> 00:13:42,620
okvir za pretraživanje je 10 milijuna poslužitelja koji

1
00:13:40,789 --> 00:13:45,469
čini Google najmoćnijim računalstvom

1
00:13:42,620 --> 00:13:48,350
platforma u svijetu Google je sada

1
00:13:45,470 --> 00:13:52,269
<boja fonta="

1
00:13:48,350 --> 00:13:52,269
imat će stotinu milijuna poslužitelja

1
00:13:52,350 --> 00:13:56,769
tako da kada ste u interakciji s Googleom

1
00:13:54,879 --> 00:13:58,929
samo vidimo nokat na nozi

1
00:13:56,769 --> 00:14:01,269
nešto što je divovska zvijer u

1
00:13:58,929 --> 00:14:02,828
stvaranje i istina je da nisam ni

1
00:14:01,269 --> 00:14:05,399
siguran da Google zna što je to

1
00:14:02,828 --> 00:14:05,399
postajanje

1
00:14:11,528 --> 00:14:17,568
ako pogledate unutar kojih algoritama

1
00:14:14,269 --> 00:14:21,889
koriste se u Googleu, njegova tehnologija

1
00:14:17,568 --> 00:14:24,679
uglavnom iz 80-ih pa su to modeli

1
00:14:21,889 --> 00:14:27,649
da trenirate pokazujući im 1 do 2

1
00:14:24,679 --> 00:14:28,969
i 3 i ne uči što je 1 ili

1
00:14:27,649 --> 00:14:31,519
što je<font color="

1
00:14:28,970 --> 00:14:34,579
razlika između 1 i 2 je to

1
00:14:31,519 --> 00:14:35,990
samo izračun u posljednjoj polovici

1
00:14:34,578 --> 00:14:37,609
desetljeće u kojem smo postigli ovaj brz

1
00:14:35,990 --> 00:14:40,430
napredak sve je bilo po obrascu

1
00:14:37,610 --> 00:14:43,938
prepoznavanje većine dobrih starih

1
00:14:40,429 --> 00:14:46,870
oblikovana AI bila je kada bismo rekli našim

1
00:14:43,938 --> 00:14:49,818
računala kako igrati igru poput šaha

1
00:14:46,870 --> 00:14:53,558
iz stare paradigme gdje ste upravo

1
00:14:49,818 --> 00:14:53,558
reći računalu što točno treba učiniti

1
00:14:57,299 --> 00:15:05,779
[Glazba]

1
00:14:59,620 --> 00:15:07,039
idejni izazov nitko u to vrijeme nije imao

1
00:15:05,779 --> 00:15:09,470
mislio da bi stroj mogao imati

1
00:15:07,039 --> 00:15:11,389
<boja fonta="

1
00:15:09,470 --> 00:15:13,370
brzina za igranje opasnosti dovoljno dobro

1
00:15:11,389 --> 00:15:17,720
igrajmo protiv najboljih jedinica

1
00:15:13,370 --> 00:15:19,460
jeopardy riječ od četiri slova za željezo

1
00:15:17,720 --> 00:15:22,070
uklapajući se na kopito konja

1
00:15:19,460 --> 00:15:24,710
Watsone što je problem u pravu si

1
00:15:22,070 --> 00:15:28,570
možete odabrati književni lik za APB

1
00:15:24,710 --> 00:15:30,740
800 je odgovorilo Daily Doubleu

1
00:15:28,570 --> 00:15:33,620
Watson je zapravo stekao svoje znanje

1
00:15:30,740 --> 00:15:36,080
čitanje Wikipedije i 200 milijuna stranica

1
00:15:33,620 --> 00:15:38,269
dokumenata prirodnog jezika ne možete

1
00:15:36,080 --> 00:15:38,830
programirati svaki redak kako svijet

1
00:15:38,269 --> 00:15:41,870
djela

1
00:15:38,830 --> 00:15:44,780
mushiya mora naučiti čitajući sada mi

1
00:15:41,870 --> 00:15:49,299
dođi do Watsona koji je<font color="

1
00:15:44,779 --> 00:15:49,299
oklada zdravo

1
00:15:50,649 --> 00:15:58,429
4:13 i utorak u kojem je Watson trenirao

1
00:15:55,309 --> 00:16:00,859
ogromne količine teksta ali nije tako

1
00:15:58,429 --> 00:16:02,269
razumije što govori

1
00:16:00,860 --> 00:16:04,310
ne zna da voda čini stvari mokrima

1
00:16:02,269 --> 00:16:05,809
dodirivanjem vode i gledanjem puta

1
00:16:04,309 --> 00:16:08,989
stvari se u svijetu ponašaju onako kako vi

1
00:16:05,809 --> 00:16:11,719
i ja radim puno jezika koji italy nije

1
00:16:08,990 --> 00:16:14,419
izgradnja logičkih modela o tome kako svijet

1
00:16:11,720 --> 00:16:17,360
radi radije gleda kako

1
00:16:14,419 --> 00:16:20,659
riječi se pojavljuju u kontekstu drugih

1
00:16:17,360 --> 00:16:22,310
riječi<font color="

1
00:16:20,659 --> 00:16:25,219
Watsona i netko ga je samo pitao

1
00:16:22,309 --> 00:16:28,789
Watsona da razmisli i rekao je da radi a

1
00:16:25,220 --> 00:16:30,110
podmornica plivati i ono što je mislio je

1
00:16:28,789 --> 00:16:32,360
kad su razvili podmornice oni

1
00:16:30,110 --> 00:16:35,240
posudio osnovne principe plivanja

1
00:16:32,360 --> 00:16:36,710
od ribe ali podmornica pliva dalje

1
00:16:35,240 --> 00:16:41,360
i brže od ribolova na području ogromnom

1
00:16:36,710 --> 00:16:43,100
nosivost i van pliva riba Watson

1
00:16:41,360 --> 00:16:45,050
pobjeda u igri Jeopardy će ići

1
00:16:43,100 --> 00:16:48,019
u povijesti umjetne inteligencije kao

1
00:16:45,049 --> 00:16:50,059
značajna prekretnica kojoj težimo biti

1
00:16:48,019 --> 00:16:52,669
zadivljen<font color="

1
00:16:50,059 --> 00:16:54,289
još više začuđen kad je računalna zvijer

1
00:16:52,669 --> 00:16:56,809
ljudi i stvari su ljudi i

1
00:16:54,289 --> 00:16:58,589
prirodno dobri u tome kako radimo

1
00:16:56,809 --> 00:17:00,989
napredak

1
00:16:58,590 --> 00:17:03,028
u ranim danima Googleovog mozga

1
00:17:00,990 --> 00:17:05,068
projekt koji sam timu dao vrlo jednostavan

1
00:17:03,028 --> 00:17:07,439
instrukcija koja je izgrađena najveća

1
00:17:05,068 --> 00:17:10,500
neuro mreža moguća poput tisuću

1
00:17:07,439 --> 00:17:11,759
računala u vašoj mreži je nešto vrlo

1
00:17:10,500 --> 00:17:15,509
blizu simulacije kako mozak

1
00:17:11,759 --> 00:17:18,420
<boja fonta="

1
00:17:15,509 --> 00:17:19,799
kontekstualnu relevantnost u vašem mozgu vi

1
00:17:18,420 --> 00:17:21,539
imaju duge neurone koji se spajaju na

1
00:17:19,799 --> 00:17:22,948
tisuće drugih neurona i imate

1
00:17:21,539 --> 00:17:24,899
ovi putovi koji se formiraju i

1
00:17:22,949 --> 00:17:27,150
kovan na temelju onoga što tada mozak treba

1
00:17:24,900 --> 00:17:29,690
učiniti kad beba nešto pokuša i to

1
00:17:27,150 --> 00:17:32,100
uspije postoji nagrada i to

1
00:17:29,690 --> 00:17:34,259
put koji je stvorio uspjeh je

1
00:17:32,099 --> 00:17:36,449
pojačan ako u nečemu ne uspije

1
00:17:34,259 --> 00:17:38,490
put je oslabljen i tako s vremenom

1
00:17:36,450 --> 00:17:41,880
mozak postaje izoštren da bude dobar

1
00:17:38,490 --> 00:17:43,309
okruženje oko njega je stvarno pravedno

1
00:17:41,880 --> 00:17:45,930
natjerati strojeve da sami uče

1
00:17:43,309 --> 00:17:47,129
<boja fonta="

1
00:17:45,930 --> 00:17:50,720
učenje i neuronske mreže znače

1
00:17:47,130 --> 00:17:53,730
otprilike isto što je duboko učenje

1
00:17:50,720 --> 00:17:56,339
potpuno drugačiji pristup gdje

1
00:17:53,730 --> 00:17:57,660
računalo uči više poput malog djeteta

1
00:17:56,339 --> 00:18:01,379
samo dobivanje puno podataka i

1
00:17:57,660 --> 00:18:03,029
na kraju shvatiti stvari

1
00:18:01,380 --> 00:18:07,620
računalo postaje sve pametnije i pametnije

1
00:18:03,029 --> 00:18:09,299
jer ima više iskustva pa zamislite ako

1
00:18:07,619 --> 00:18:11,489
vi ćete neuronsku mrežu kao što smo mi

1
00:18:09,299 --> 00:18:13,349
tisuća računala i ne budi se

1
00:18:11,490 --> 00:18:16,640
znajući<font color="

1
00:18:13,349 --> 00:18:16,639
YouTube tjedan dana

1
00:18:17,640 --> 00:18:26,910
[Glazba]

1
00:18:29,059 --> 00:18:39,769
[Glazba]

1
00:18:36,289 --> 00:18:41,869
i tako nakon tjedan dana gledanja YouTubea

1
00:18:39,769 --> 00:18:43,519
što su naučili imali smo hipotezu

1
00:18:41,869 --> 00:18:46,819
uče otkrivati česte pojave

1
00:18:43,519 --> 00:18:49,129
objekte u videozapisima i tako znamo

1
00:18:46,819 --> 00:18:50,359
ljudska lica često se pojavljuju u videozapisima pa mi

1
00:18:49,130 --> 00:18:52,070
pogledao i gle i gle, bilo je

1
00:18:50,359 --> 00:18:58,849
neuron koji je naučio detektirati čovjeka

1
00:18:52,069 --> 00:19:02,929
lica znaju što se još pojavljuje u videozapisima a

1
00:18:58,849 --> 00:19:04,849
puno pa smo tražili iznenađenje

1
00:19:02,930 --> 00:19:06,269
<boja fonta="

1
00:19:04,849 --> 00:19:15,189
otkriti mačke

1
00:19:06,269 --> 00:19:18,230
[Glazba]

1
00:19:15,190 --> 00:19:24,920
to je ono zapamti CF priznanje wow

1
00:19:18,230 --> 00:19:26,029
to je mačka ok super super to je sve

1
00:19:24,920 --> 00:19:26,660
prilično bezazleno kad razmišljaš

1
00:19:26,029 --> 00:19:29,859
o budućnosti

1
00:19:26,660 --> 00:19:32,540
sve se to čini nekako bezopasno u benignom

1
00:19:29,859 --> 00:19:34,459
ali mi stvaramo kognitivne arhitekture

1
00:19:32,539 --> 00:19:36,230
koji će letjeti dalje i brže od nas

1
00:19:34,460 --> 00:19:39,110
i nose veći teret i oni

1
00:19:36,230 --> 00:19:41,089
neće biti toplo i mutno, mislim da u

1
00:19:39,109 --> 00:19:43,699
tri do pet godina vidjet ćete a

1
00:19:41,089 --> 00:19:47,599
računalni sustav koji će moći

1
00:19:43,700 --> 00:19:50,870
autonomno<font color="

1
00:19:47,599 --> 00:19:53,500
izgraditi razumijevanje ne za razliku od

1
00:19:50,869 --> 00:19:53,500
način na koji funkcionira ljudski um

1
00:19:54,470 --> 00:19:59,850
kakav god da je taj ručak bio svakako je bio

1
00:19:56,940 --> 00:20:03,090
ukusno jednostavno zbroj Robbieja

1
00:19:59,849 --> 00:20:04,859
sintetika je i vaš kuhar

1
00:20:03,089 --> 00:20:09,720
proizvodi sirovine dolaze

1
00:20:04,859 --> 00:20:13,648
ovdje, Robbie, pokazat ću ti kako ovo

1
00:20:09,720 --> 00:20:16,919
djela jedan uvodi uzorak ljudskog

1
00:20:13,648 --> 00:20:18,449
hranu kroz ovaj otvor ovdje dolje

1
00:20:16,919 --> 00:20:20,429
postoji mala ugrađena kemikalija

1
00:20:18,450 --> 00:20:22,590
laboratoriju gdje ga je kasnije analizirao on

1
00:20:20,429 --> 00:20:26,059
može reproducirati identične molekule<font color="

1
00:20:22,589 --> 00:20:29,490
bilo koji oblik ili količina što se tiče sna

1
00:20:26,058 --> 00:20:32,339
upoznajte Baxterovu revolucionarnu novu kategoriju

1
00:20:29,490 --> 00:20:34,589
robota sa zdravim razumom Baxter

1
00:20:32,339 --> 00:20:38,009
Baxter je stvarno dobar primjer

1
00:20:34,589 --> 00:20:40,349
vrsta konkurencije s kojom se suočavamo za strojeve

1
00:20:38,009 --> 00:20:45,150
Baxter može učiniti gotovo sve što mi možemo

1
00:20:40,349 --> 00:20:47,699
s našim rukama Baxter košta otprilike koliko a

1
00:20:45,150 --> 00:20:49,860
radnik s minimalnom plaćom zaradi u godini

1
00:20:47,700 --> 00:20:51,420
Baxter neće zauzeti mjesto

1
00:20:49,859 --> 00:20:52,979
jednog radnika s minimalnom plaćom kojeg će uzeti

1
00:20:51,420 --> 00:20:56,700
mjesto troje jer oni nikad

1
00:20:52,980 --> 00:20:57,839
zapošljavaju se nikad ne rade pauze to je

1
00:20:56,700 --> 00:21:00,569
<boja fonta="

1
00:20:57,839 --> 00:21:02,939
reći premještanje radnih mjesta oni idu

1
00:21:00,569 --> 00:21:06,839
to be done faster brže jeftinije by

1
00:21:02,940 --> 00:21:09,000
strojevi našu sposobnost čak i ostati

1
00:21:06,839 --> 00:21:12,059
struja je tako suludo ograničena u usporedbi

1
00:21:09,000 --> 00:21:14,130
na strojeve koje smo napravili na primjer sada

1
00:21:12,059 --> 00:21:15,450
imamo to veliko kretanje ubera i

1
00:21:14,130 --> 00:21:17,370
lyft je vrsta prijevoza

1
00:21:15,450 --> 00:21:19,799
jeftiniji i demokratizirajući prijevoz

1
00:21:17,369 --> 00:21:20,909
što je super sljedeći korak

1
00:21:19,799 --> 00:21:22,859
bilo da argument ploče po

1
00:21:20,910 --> 00:21:24,029
<boja fonta="

1
00:21:22,859 --> 00:21:26,359
i vozači lyfta morali su nešto pronaći

1
00:21:24,029 --> 00:21:26,359
novo za napraviti

1
00:21:26,380 --> 00:21:31,150
postoji 4 milijuna profesionalnih vozača

1
00:21:29,019 --> 00:21:34,139
u Sjedinjenim Državama su nezaposleni

1
00:21:31,150 --> 00:21:37,900
uskoro 7 milijuna ljudi za unos podataka

1
00:21:34,140 --> 00:21:41,530
ti ljudi će ostati bez posla

1
00:21:37,900 --> 00:21:43,500
posao nije samo novac

1
00:21:41,529 --> 00:21:46,839
biološkoj razini služi svrsi

1
00:21:43,500 --> 00:21:49,299
postaje odlučujuća stvar kada poslovi

1
00:21:46,839 --> 00:21:50,740
otišao u bilo kojoj civilizaciji to

1
00:21:49,299 --> 00:21:53,159
ne traje dugo<font color="

1
00:21:50,740 --> 00:21:53,160
nasilje

1
00:22:00,569 --> 00:22:04,710
suočavamo se s ogromnim jazom između bogatih i

1
00:22:02,789 --> 00:22:06,750
jadan jer to je ono što automatizacija i

1
00:22:04,710 --> 00:22:10,289
AI će izazvati veći jaz između

1
00:22:06,750 --> 00:22:11,910
oni koji imaju i oni koji nemaju trenutno je to

1
00:22:10,289 --> 00:22:15,389
radeći u srednjoj klasi

1
00:22:11,910 --> 00:22:17,490
službene poslove koje obavlja IBM-ov Watson

1
00:22:15,390 --> 00:22:20,840
poslovna analitika koju smo plaćali a

1
00:22:17,490 --> 00:22:24,029
poslovni analitičar 300 dolara na sat

1
00:22:20,839 --> 00:22:25,500
danas ideš na fakultet da budeš liječnik

1
00:22:24,029 --> 00:22:27,809
biti računovođa biti novinar

1
00:22:25,500 --> 00:22:31,559
nije jasno hoće li biti poslova

1
00:22:27,809 --> 00:22:33,839
<boja fonta="

1
00:22:31,559 --> 00:22:35,879
samo 40 godina karijere u radiologiji

1
00:22:33,839 --> 00:22:39,889
čitajući slike, mislim da bi to moglo biti a

1
00:22:35,880 --> 00:22:39,890
izazov novim vozačima današnjice

1
00:22:56,339 --> 00:23:03,879
ali danas živimo u robotskom kućištu

1
00:23:00,759 --> 00:23:07,509
da Vinci robot trenutno koristi

1
00:23:03,880 --> 00:23:11,340
niz kirurga zbog svoje točnosti i

1
00:23:07,509 --> 00:23:14,819
njegovu sposobnost da izbjegne neizbježno

1
00:23:11,339 --> 00:23:23,740
fluktuacije ljudske ruke

1
00:23:14,819 --> 00:23:26,329
[Glazba]

1
00:23:23,740 --> 00:23:29,380
svatko tko ovo gleda osjeća se

1
00:23:26,329 --> 00:23:29,379
nevjerojatno od toga

1
00:23:31,039 --> 00:23:36,869
pogledaš kroz opseg i imaš

1
00:23:33,630 --> 00:23:39,570
vidio kandžastu ruku koja drži tu ženu

1
00:23:36,869 --> 00:23:44,119
jajnik čovječanstvo je počivao upravo tamo

1
00:23:39,569 --> 00:23:47,000
<boja fonta="

1
00:23:44,119 --> 00:23:52,139
to je budućnost, ali nije budućnost

1
00:23:47,000 --> 00:23:54,329
to je sadašnjost ako razmišljate o a

1
00:23:52,140 --> 00:23:56,430
kirurškog robota često nema puno

1
00:23:54,329 --> 00:23:57,629
inteligencije u tim stvarima ali preko

1
00:23:56,430 --> 00:23:59,610
vrijeme dok stavljamo sve više i više

1
00:23:57,630 --> 00:24:01,680
inteligencije u te sustave

1
00:23:59,609 --> 00:24:04,049
kirurški roboti zapravo mogu učiti

1
00:24:01,680 --> 00:24:05,370
svaku robotsku operaciju koju prate

1
00:24:04,049 --> 00:24:06,629
pokreti oni razumiju što

1
00:24:05,369 --> 00:24:09,209
radilo i što nije radilo i

1
00:24:06,630 --> 00:24:11,130
na kraju<font color="

1
00:24:09,210 --> 00:24:13,860
operacije će moći izvesti

1
00:24:11,130 --> 00:24:16,440
da posve sama ili s ljudskim

1
00:24:13,859 --> 00:24:18,659
nadzor obično obavljam oko a

1
00:24:16,440 --> 00:24:22,710
sto pedeset slučajeva histerektomije

1
00:24:18,660 --> 00:24:26,250
kažu i sada je većina njih gotova

1
00:24:22,710 --> 00:24:31,829
robotski radim možda jedan otvoreni slučaj a

1
00:24:26,250 --> 00:24:34,970
godine pa se osjećam nelagodno kako da

1
00:24:31,829 --> 00:24:34,970
otvorene baze više

1
00:24:35,490 --> 00:24:42,210
čini se da ga hranimo i

1
00:24:37,589 --> 00:24:47,629
stvarajući ga ali na neki način robujemo

1
00:24:42,210 --> 00:24:47,630
tehnologija jer<font color="

1
00:24:50,400 --> 00:24:55,960
strojevi su sve veći i

1
00:24:52,569 --> 00:24:58,629
veće zalogaje iz našeg skupa vještina i

1
00:24:55,960 --> 00:25:00,400
nikada ne povećavaju brzinu i tako smo

1
00:24:58,630 --> 00:25:11,770
moram trčati sve brže i brže da zadržim

1
00:25:00,400 --> 00:25:12,280
ispred strojeva ste privučeni

1
00:25:11,769 --> 00:25:15,490
prema meni

1
00:25:12,279 --> 00:25:21,700
što me privlačiš daješ mi

1
00:25:15,490 --> 00:25:23,859
indikacije da si radim da ovo

1
00:25:21,700 --> 00:25:27,580
je li budućnost u koju idemo mi

1
00:25:23,859 --> 00:25:29,369
želimo dizajnirati naše pratioce koje smo

1
00:25:27,579 --> 00:25:32,339
volio bih vidjeti ljudsko lice na I

1
00:25:29,369 --> 00:25:34,509
<boja fonta="

1
00:25:32,339 --> 00:25:37,299
depresivno lako

1
00:25:34,509 --> 00:25:39,879
nismo tako komplicirani jednostavni

1
00:25:37,299 --> 00:25:44,139
odgovor na podražaj Mogu učiniti da ti se sviđaš

1
00:25:39,880 --> 00:25:45,550
u biti tako što ti se puno smiješi, da

1
00:25:44,140 --> 00:25:48,300
naši će biti fantastični

1
00:25:45,549 --> 00:25:48,299
manipulirajući nama

1
00:25:49,000 --> 00:25:53,380
[Glazba]

1
00:25:54,809 --> 00:26:01,269
pa ste razvili tehnologiju koja

1
00:25:57,849 --> 00:26:03,039
može osjetiti što ljudi dobro osjećaju

1
00:26:01,269 --> 00:26:05,079
razvili smo tehnologiju koja može čitati

1
00:26:03,039 --> 00:26:07,839
svoje izraze lica i mapirajte to na

1
00:26:05,079 --> 00:26:09,849
broj emocionalnih stanja petnaest

1
00:26:07,839 --> 00:26:11,500
godine upravo sam završio svoj

1
00:26:09,849 --> 00:26:13,569
dodiplomski studij<font color="

1
00:26:11,500 --> 00:26:16,720
znanosti i sinulo mi je da sam

1
00:26:13,569 --> 00:26:19,089
provoditi puno vremena u interakciji s

1
00:26:16,720 --> 00:26:22,150
moja prijenosna računala na mojim uređajima, ali i ovi

1
00:26:19,089 --> 00:26:26,289
uređaji nisu imali pojma kako sam

1
00:26:22,150 --> 00:26:28,540
osjećajući da sam počeo razmišljati što ako ovo

1
00:26:26,289 --> 00:26:30,730
uređaj mogao osjetiti da sam pod stresom

1
00:26:28,539 --> 00:26:38,950
ili sam imao loš dan što bi

1
00:26:30,730 --> 00:26:41,319
koje se otvaraju za tebe mogu li dobiti zagrljaj

1
00:26:38,950 --> 00:26:43,960
imali su djecu u interakciji s tehnologijom a

1
00:26:41,319 --> 00:26:55,119
mnogo toga je još u razvoju, ali to

1
00:26:43,960 --> 00:27:01,299
bilo je nevjerojatno tko voli robote moja mama

1
00:26:55,119 --> 00:27:04,419
stvarno teška pitanja iz matematike<font color="

1
00:27:01,299 --> 00:27:10,389
plašenje ljudi u redu pa počnite od toga

1
00:27:04,420 --> 00:27:12,820
nasmiješen lijepa bora čela lijepa

1
00:27:10,390 --> 00:27:14,620
podigla je obrvu ovu generaciju

1
00:27:12,819 --> 00:27:17,619
tehnologija ih sve samo okružuje

1
00:27:14,619 --> 00:27:19,059
vrijeme je gotovo kao što očekuju

1
00:27:17,619 --> 00:27:21,099
imaju robote u svojim domovima i oni

1
00:27:19,059 --> 00:27:26,589
očekujte da će ovi roboti biti društveni

1
00:27:21,099 --> 00:27:30,059
inteligentno ono što robote čini pametnim

1
00:27:26,589 --> 00:27:33,490
na satovima matematike ili biologije I

1
00:27:30,059 --> 00:27:37,359
mislim da ćeš morati dobro trenirati

1
00:27:33,490 --> 00:27:39,039
prošetajmo ovamo pa ako se nasmiješ i

1
00:27:37,359 --> 00:27:41,789
podižeš<font color="

1
00:27:39,039 --> 00:27:41,789
preko tebe

1
00:27:43,210 --> 00:27:52,009
ali ako izgledaš ljuto, pobjeći će

1
00:27:45,679 --> 00:27:56,720
dalje razmjenjujemo računala za čitanje i

1
00:27:52,009 --> 00:27:58,730
prepoznati emocije dosadašnji odgovor

1
00:27:56,720 --> 00:28:00,288
je stvarno nevjerojatno ljudi su

1
00:27:58,730 --> 00:28:05,808
integrirajući ovo u zdravstvene aplikacije

1
00:28:00,288 --> 00:28:08,558
aplikacije za meditaciju roboti automobili koje ćemo

1
00:28:05,808 --> 00:28:08,558
vidi kako se ovo odvija

1
00:28:09,730 --> 00:28:15,528
roboti mogu sadržavati AI, ali robot je

1
00:28:13,339 --> 00:28:17,418
samo fizički primjer i

1
00:28:15,528 --> 00:28:19,819
umjetna inteligencija je mozak i

1
00:28:17,419 --> 00:28:21,710
tako da mozgovi mogu postojati samo u softveru

1
00:28:19,819 --> 00:28:24,470
sustave koji ne moraju imati

1
00:28:21,710 --> 00:28:26,569
fizički<font color="

1
00:28:24,470 --> 00:28:29,899
bilo kakva umjetna inteligencija koju imamo

1
00:28:26,569 --> 00:28:32,358
puno glupih robota vani, ali glupi

1
00:28:29,898 --> 00:28:34,459
robot može preko noći postati pametni robot

1
00:28:32,358 --> 00:28:38,210
s obzirom na pravi softver s obzirom na pravo

1
00:28:34,460 --> 00:28:40,009
senzori ne možemo pomoći, ali pripisati motiv

1
00:28:38,210 --> 00:28:42,200
u nežive predmete s kojima to radimo

1
00:28:40,009 --> 00:28:46,509
strojeve, tretirat ćemo ih kao djecu

1
00:28:42,200 --> 00:28:49,929
postupat ćemo s njima kao sa surogatima i

1
00:28:46,509 --> 00:28:49,929
platit ćemo cijenu

1
00:28:51,200 --> 00:28:54,298
[Glazba]

1
00:29:00,630 --> 00:29:10,950
[Glazba]

1
00:29:08,769 --> 00:29:17,338
dobrodošli ste na to da

1
00:29:10,950 --> 00:29:17,338
[Glazba]

1
00:29:19,048 --> 00:29:24,190
moja je svrha imati više nalik ljudima

1
00:29:22,000 --> 00:29:27,240
robot koji ima ljudski<font color="

1
00:29:24,190 --> 00:29:30,318
namjera želja

1
00:29:27,240 --> 00:29:30,318
[Glazba]

1
00:29:36,309 --> 00:29:44,079
ime robota je Erica erica je

1
00:29:41,140 --> 00:29:47,410
najnapredniji čovjekoliki robot u

1
00:29:44,079 --> 00:29:49,199
svijet koji mislim da Erica i ja možemo gledati

1
00:29:47,410 --> 00:29:52,460
na tvoje lice

1
00:29:49,200 --> 00:29:57,029
[Glazba]

1
00:29:52,460 --> 00:29:58,490
samo našim svojstvima i predviđamo

1
00:29:57,029 --> 00:30:01,049
sa sugovornicima

1
00:29:58,490 --> 00:30:03,750
posebno za starije i mlade

1
00:30:01,049 --> 00:30:06,329
ideje za djecu s invaliditetom

1
00:30:03,750 --> 00:30:10,470
kada razgovaramo s robotom ne bojimo se

1
00:30:06,329 --> 00:30:14,689
društvene prepreke društveni pritisci

1
00:30:10,470 --> 00:30:18,390
napokon svi osim Androida kao

1
00:30:14,690 --> 00:30:20,610
samo naš prijatelj bili su partneri koje imamo

1
00:30:18,390 --> 00:30:23,280
provodi jednostavne želje sada ona

1
00:30:20,609 --> 00:30:25,969
tražio<font color="

1
00:30:23,279 --> 00:30:25,970
htio uhititi

1
00:30:27,329 --> 00:30:31,808
[Glazba]

1
00:30:29,430 --> 00:30:32,620
kad bi robot mogao imati namjeru

1
00:30:31,808 --> 00:30:35,529
tu je Oreos

1
00:30:32,619 --> 00:30:46,000
robot može razumjeti tuđe

1
00:30:35,529 --> 00:30:48,190
želje za angažmanom koji je vezan uz

1
00:30:46,000 --> 00:30:49,859
odnosi s ljudima i to

1
00:30:48,190 --> 00:30:53,440
znači da se vole jedno drugo

1
00:30:49,859 --> 00:30:56,039
to znači pa nisam siguran i neću

1
00:30:53,440 --> 00:30:56,039
trljati jedno drugo

1
00:30:57,589 --> 00:31:00,859
gradimo o službenoj inteligenciji i

1
00:30:59,779 --> 00:31:03,470
prva stvar koju želimo učiniti je

1
00:31:00,859 --> 00:31:06,589
repliciraj nas

1
00:31:03,470 --> 00:31:11,319
Mislim da će ključna točka doći kada sve

1
00:31:06,589 --> 00:31:16,908
glavna osjetila su replicirani vid

1
00:31:11,319 --> 00:31:20,379
miris dodira kada repliciramo svoja osjetila

1
00:31:16,909 --> 00:31:20,380
je da kada postane živ

1
00:31:27,789 --> 00:31:34,579
toliko naših strojeva se<font color="

1
00:31:30,559 --> 00:31:36,289
razumjeti nas ali što se događa sa

1
00:31:34,579 --> 00:31:38,210
antropomorfno stvorenje otkriva

1
00:31:36,289 --> 00:31:40,549
da mogu prilagoditi svoju lojalnost

1
00:31:38,210 --> 00:31:46,460
prilagoditi njihovu hrabrost prilagoditi njihovu

1
00:31:40,549 --> 00:31:48,379
avarice prilagoditi njihovu lukavost prosjeku

1
00:31:46,460 --> 00:31:49,910
osoba koja ne vidi robote ubojice

1
00:31:48,380 --> 00:31:52,370
idući ulicama oni su kao što

1
00:31:49,910 --> 00:31:54,350
govoriš li o čovjeku

1
00:31:52,369 --> 00:31:58,219
želimo biti sigurni da nemamo

1
00:31:54,349 --> 00:31:59,599
roboti ubojice koji jednom prolaze ulicom

1
00:31:58,220 --> 00:32:08,329
idu ulicom i to je

1
00:31:59,599 --> 00:32:11,449
kasno ono što me trenutno brine

1
00:32:08,329 --> 00:32:14,409
<boja fonta="

1
00:32:11,450 --> 00:32:14,410
autonomnog oružja

1
00:32:28,089 --> 00:32:34,669
do sada su ljudi izražavali nelagodu

1
00:32:31,130 --> 00:32:42,170
o dronovima kojima se upravlja na daljinu

1
00:32:34,670 --> 00:32:44,720
zrakoplov ako uzmete kameru dronova

1
00:32:42,170 --> 00:32:47,990
unesite ga u sustav umjetne inteligencije, to je vrlo

1
00:32:44,720 --> 00:32:49,640
jednostavan korak odavde do potpuno autonomnog

1
00:32:47,990 --> 00:32:53,170
oružja koja sama biraju mete

1
00:32:49,640 --> 00:32:53,170
ispuštaju vlastite projektile

1
00:32:55,269 --> 00:32:58,389
[Glazba]

1
00:33:02,299 --> 00:33:05,368
[pljesak]

1
00:33:12,720 --> 00:33:17,440
očekivani životni vijek ljudskog bića

1
00:33:15,490 --> 00:33:20,460
i takvo zbunjujuće okruženje

1
00:33:17,440 --> 00:33:20,460
mjerit će se u sekundama

1
00:33:20,640 --> 00:33:27,340
u jednom trenutku dronovi ili znanstvena fantastika

1
00:33:24,009 --> 00:33:31,779
a sada su postali normalna stvar

1
00:33:27,339 --> 00:33:35,109
i rat<font color="

1
00:33:31,779 --> 00:33:36,759
samo vojni inventar ali nisu

1
00:33:35,109 --> 00:33:40,449
samo u.s. fenomen postoji više od

1
00:33:36,759 --> 00:33:43,000
80 zemalja koje ih koriste to stoji

1
00:33:40,450 --> 00:33:44,200
razumjeti da ljudi čine neke od

1
00:33:43,000 --> 00:33:46,690
najvažnije i najteže odluke

1
00:33:44,200 --> 00:33:50,250
u svijetu će se početi koristiti i

1
00:33:46,690 --> 00:33:50,250
implementirati umjetnu inteligenciju

1
00:33:50,859 --> 00:33:54,709
Zračne snage su upravo dizajnirale četiri

1
00:33:53,180 --> 00:33:58,930
sto milijardi dolara mlazni program za

1
00:33:54,710 --> 00:34:01,579
staviti pilote na nebo i AI od 500 dolara

1
00:33:58,930 --> 00:34:03,740
dizajnirao par<font color="

1
00:34:01,579 --> 00:34:10,699
studenti kao najbolji ljudski piloti

1
00:34:03,740 --> 00:34:12,918
s relativno jednostavnim algoritmom io I

1
00:34:10,699 --> 00:34:16,460
imat će veliki utjecaj na

1
00:34:12,918 --> 00:34:18,888
vojni kao što je imao motor s unutarnjim izgaranjem

1
00:34:16,460 --> 00:34:20,690
prijelazu stoljeća koji bi

1
00:34:18,889 --> 00:34:23,809
doslovno dotaknuti sve što

1
00:34:20,690 --> 00:34:26,450
vojska radi iz konvoja bez vozača

1
00:34:23,809 --> 00:34:29,210
isporuku logističkih potrepština

1
00:34:26,449 --> 00:34:32,329
bespilotne letjelice koje dostavljaju medicinsku pomoć

1
00:34:29,210 --> 00:34:33,559
da računalna propaganda pokuša i pobijedi

1
00:34:32,329 --> 00:34:38,059
srca i umove stanovništva

1
00:34:33,559 --> 00:34:40,279
<boja fonta="

1
00:34:38,059 --> 00:34:47,179
ima najbolji dan koji ću vjerojatno postići

1
00:34:40,280 --> 00:34:49,639
dominacija na ovom planetu u nekom trenutku

1
00:34:47,179 --> 00:34:53,659
početkom 21. stoljeća cijelo čovječanstvo

1
00:34:49,639 --> 00:34:56,000
bio ujedinjen u slavlju kojem smo se čudili

1
00:34:53,659 --> 00:34:58,809
našu vlastitu veličanstvenost kakvu smo rodili

1
00:34:56,000 --> 00:34:58,809
a

1
00:34:59,829 --> 00:35:03,549
Mislim na umjetnu inteligenciju a

1
00:35:01,420 --> 00:35:07,720
jedinstvena svijest koja je iznjedrila an

1
00:35:03,550 --> 00:35:11,170
cijela rasa strojeva koje ne poznajemo

1
00:35:07,719 --> 00:35:15,089
tko je prvi udario na nas ili njih ali znamo

1
00:35:11,170 --> 00:35:17,139
da smo mi spržili nebo

1
00:35:15,090 --> 00:35:18,970
<boja fonta="

1
00:35:17,139 --> 00:35:22,710
fikcija ne samo predviđanje budućnosti

1
00:35:18,969 --> 00:35:22,709
ali oblikovanje budućnosti

1
00:35:27,130 --> 00:35:33,039
Arthur Conan Doyle jaše ispred svijeta

1
00:35:30,639 --> 00:35:35,889
Rat jedan samo opasnost kako

1
00:35:33,039 --> 00:35:39,730
podmornice bi se mogle koristiti za izvođenje

1
00:35:35,889 --> 00:35:42,940
civilne blokade u vrijeme kad je

1
00:35:39,730 --> 00:35:44,710
pisanje ove fikcije izradila je Kraljevska mornarica

1
00:35:42,940 --> 00:35:47,500
zabava Arthura Conana Doylea zbog ovoga

1
00:35:44,710 --> 00:35:49,460
apsurdna ideja da bi podmornice mogle biti

1
00:35:47,500 --> 00:35:52,539
koristan i rat

1
00:35:49,460 --> 00:35:52,539
[Glazba]

1
00:35:54,039 --> 00:35:58,550
jedna od stvari koje smo vidjeli u povijesti

1
00:35:55,818 --> 00:36:02,029
je to naš odnos prema tehnologiji

1
00:35:58,550 --> 00:36:02,660
<boja fonta="

1
00:36:02,030 --> 00:36:05,510
ovisan

1
00:36:02,659 --> 00:36:07,338
primjerice podmornički narodi poput

1
00:36:05,510 --> 00:36:09,800
Velika Britanija pa čak i I države

1
00:36:07,338 --> 00:36:12,949
smatrao je užasnim koristiti podmornicu

1
00:36:09,800 --> 00:36:15,318
zapravo Nijemac koristio podmornicu

1
00:36:12,949 --> 00:36:18,879
izvršiti napade bio je razlog zašto

1
00:36:15,318 --> 00:36:22,400
Sjedinjene Države su se pridružile Prvom svjetskom ratu

1
00:36:18,880 --> 00:36:24,559
ali pomaknite vremensku crtu naprijed United

1
00:36:22,400 --> 00:36:27,920
Države Amerike odjednom su i

1
00:36:24,559 --> 00:36:32,119
namjerno napadnuto od strane Carstva

1
00:36:27,920 --> 00:36:34,880
Japan<font color="

1
00:36:32,119 --> 00:36:41,059
red izlazi za počiniti neograničeno

1
00:36:34,880 --> 00:36:42,890
podmornički rat protiv Japana tako

1
00:36:41,059 --> 00:36:46,460
Pokazalo se da je Arthur Conan Doyle

1
00:36:42,889 --> 00:36:48,259
točno, to je sjajna stara linija

1
00:36:46,460 --> 00:36:51,440
o znanstvenoj fantastici je laž da

1
00:36:48,260 --> 00:36:53,180
govori istinu kolege rukovoditelji to

1
00:36:51,440 --> 00:36:55,309
veliko mi je zadovoljstvo predstaviti vas

1
00:36:53,179 --> 00:36:59,049
za budućnost provedbe zakona

1
00:36:55,309 --> 00:36:59,050
edie 209

1
00:37:04,289 --> 00:37:09,029
ovo nije samo znanstveno pitanje

1
00:37:06,059 --> 00:37:10,420
fikcija ovo je o onome što je sljedeće

1
00:37:09,030 --> 00:37:14,000
što se događa upravo sada

1
00:37:10,420 --> 00:37:17,159
[Glazba]

1
00:37:14,000 --> 00:37:20,730
uloga inteligentnih sustava je

1
00:37:17,159 --> 00:37:27,750
raste vrlo brzo u ratovanju svatko

1
00:37:20,730 --> 00:37:29,849
danas gura u bespilotno područje

1
00:37:27,750 --> 00:37:31,860
Ministar obrane je vrlo jasan

1
00:37:29,849 --> 00:37:34,650
nećemo stvoriti potpuno autonomne

1
00:37:31,860 --> 00:37:36,390
napadati vozila ne idu svi

1
00:37:34,650 --> 00:37:38,700
da se drže tog istog skupa

1
00:37:36,389 --> 00:37:41,849
vrijednosti i kada Kina i Rusija i

1
00:37:38,699 --> 00:37:45,329
započeti s uvođenjem autonomnih vozila koja

1
00:37:41,849 --> 00:37:51,989
može napasti i ubiti koji je to potez

1
00:37:45,329 --> 00:37:53,489
natjerat ćemo te da ne možeš reći dobro

1
00:37:51,989 --> 00:37:55,229
upotrijebit ćemo oružje za beskućnike

1
00:37:53,489 --> 00:37:58,049
za našu našu vojnu dominaciju ali ne

1
00:37:55,230 --> 00:37:59,849
netko drugi će ih koristiti ako ti

1
00:37:58,050 --> 00:38:03,060
napravi ovo oružje koje će biti

1
00:37:59,849 --> 00:38:05,750
koristi se za napad<font color="

1
00:38:03,059 --> 00:38:05,750
veliki brojevi

1
00:38:07,110 --> 00:38:10,249
[Glazba]

1
00:38:13,159 --> 00:38:17,449
turniri oružje koje po svojoj prirodi

1
00:38:15,650 --> 00:38:19,519
oružja za masovno uništenje jer

1
00:38:17,449 --> 00:38:23,058
ne treba ljudsko biće da ga vodi

1
00:38:19,519 --> 00:38:25,900
ili ga nositi potrebna vam je samo jedna osoba

1
00:38:23,059 --> 00:38:29,780
znaš napiši mali program

1
00:38:25,900 --> 00:38:33,588
to je samo nazdravlje složenost

1
00:38:29,780 --> 00:38:37,450
ovo polje je cool, važno je

1
00:38:33,588 --> 00:38:43,788
nevjerojatno je i zastrašujuće i

1
00:38:37,449 --> 00:38:46,068
sve je u povjerenju, to je otvoreno pismo

1
00:38:43,789 --> 00:38:47,900
o umjetnoj inteligenciji potpisan od

1
00:38:46,068 --> 00:38:50,210
neki od<font color="

1
00:38:47,900 --> 00:38:52,548
što žele zabraniti korištenje

1
00:38:50,210 --> 00:38:54,798
autonomno oružje naveo je autor

1
00:38:52,548 --> 00:38:56,929
citiram autonomno oružje

1
00:38:54,798 --> 00:38:59,088
opisan kao treća revolucija u

1
00:38:56,929 --> 00:39:01,250
ratovanje tisuća umjetna inteligencija

1
00:38:59,088 --> 00:39:05,000
stručnjaci koji pozivaju na globalnu zabranu

1
00:39:01,250 --> 00:39:07,039
roboti ubojice zapravo ovo otvoreno pismo

1
00:39:05,000 --> 00:39:08,480
kaže da bismo trebali redefinirati cilj

1
00:39:07,039 --> 00:39:11,390
polje umjetne inteligencije

1
00:39:08,480 --> 00:39:13,880
daleko od samo stvaranja čistog neusmjerenog

1
00:39:11,389 --> 00:39:15,739
inteligencije prema stvaranju blagotvornih

1
00:39:13,880 --> 00:39:17,568
inteligencije razvoj AI je

1
00:39:15,739 --> 00:39:19,368
ne<font color="

1
00:39:17,568 --> 00:39:21,588
nastavi i popravi se ako

1
00:39:19,369 --> 00:39:23,420
međunarodna zajednica ne stavlja

1
00:39:21,588 --> 00:39:25,788
određene kontrole nad ovim ljudima će

1
00:39:23,420 --> 00:39:27,829
razvijati stvari koje mogu učiniti bilo što

1
00:39:25,789 --> 00:39:29,960
pismo kaže da nismo godine

1
00:39:27,829 --> 00:39:31,910
desetljećima daleko od postojanja ovog oružja

1
00:39:29,960 --> 00:39:34,010
raspoređeni tako da smo imali šest tisuća

1
00:39:31,909 --> 00:39:37,139
zemlje tog slova uključujući mnoge

1
00:39:34,010 --> 00:39:39,390
glavnih figura na tom polju

1
00:39:37,139 --> 00:39:41,489
Dobivam puno posjeta od

1
00:39:39,389 --> 00:39:43,980
visoki dužnosnici koji žele

1
00:39:41,489 --> 00:39:46,709
<boja fonta="

1
00:39:43,980 --> 00:39:49,170
je vrlo važno i autonomno oružje

1
00:39:46,710 --> 00:39:52,528
može biti dio Ministarstva obrane

1
00:39:49,170 --> 00:39:54,869
plan koji je vrlo zastrašujući jer a

1
00:39:52,528 --> 00:39:56,670
vrijednosni sustav vojnih razvijatelja

1
00:39:54,869 --> 00:40:02,160
Tehnologija nije isto što i vrijednost

1
00:39:56,670 --> 00:40:04,349
sustav ljudske rase izvan

1
00:40:02,159 --> 00:40:06,389
zabrinutost zbog mogućnosti da ovo

1
00:40:04,349 --> 00:40:07,140
tehnologija bi mogla biti prijetnja ljudima

1
00:40:06,389 --> 00:40:09,268
postojanje

1
00:40:07,139 --> 00:40:11,068
<boja fonta="

1
00:40:09,268 --> 00:40:14,159
financirao Institut za budućnost života

1
00:40:11,068 --> 00:40:16,230
pokušajte se uhvatiti u koštac sa svim tim problemima

1
00:40:14,159 --> 00:40:17,818
ovi tipovi su tajnoviti i tako je

1
00:40:16,230 --> 00:40:23,699
zanimljivo mi je vidjeti njih i tebe

1
00:40:17,818 --> 00:40:25,288
znamo svi zajedno sve što imamo je

1
00:40:23,699 --> 00:40:28,018
nije rezultat naše inteligencije

1
00:40:25,289 --> 00:40:30,630
rezultat naših velikih strašnih zuba ili naših

1
00:40:28,018 --> 00:40:32,338
velike pandže ili naši golemi mišići

1
00:40:30,630 --> 00:40:35,130
jer smo zapravo relativno

1
00:40:32,338 --> 00:40:37,619
inteligentan i među mojom generacijom

1
00:40:35,130 --> 00:40:39,720
svi mi imamo ono što zovemo sveta krava

1
00:40:37,619 --> 00:40:42,088
ili nešto sveto nešto drugo trenuci

1
00:40:39,719 --> 00:40:44,959
<boja fonta="

1
00:40:42,088 --> 00:40:47,548
ubrzavajući brže nego što smo očekivali

1
00:40:44,960 --> 00:40:49,528
sjetiti se sjediti oko stola tamo

1
00:40:47,548 --> 00:40:51,809
s nekima od najboljih i najpametnijih

1
00:40:49,528 --> 00:40:54,480
umovi u svijetu i što stvarno

1
00:40:51,809 --> 00:40:57,930
pogodilo me je možda ljudski mozak

1
00:40:54,480 --> 00:40:59,400
nije u stanju u potpunosti shvatiti složenost

1
00:40:57,929 --> 00:41:02,969
svijeta s kojim smo suočeni

1
00:40:59,400 --> 00:41:05,009
jer je trenutno izgrađena cesta

1
00:41:02,969 --> 00:41:07,980
da AI prati glave s litice

1
00:41:05,009 --> 00:41:09,539
i moramo promijeniti smjer koji

1
00:41:07,980 --> 00:41:15,119
idemo da ne uzmemo

1
00:41:09,539 --> 00:41:19,170
ljudska rasa s litice koju je Google stekao

1
00:41:15,119 --> 00:41:20,608
dubok um<font color="

1
00:41:19,170 --> 00:41:24,088
djeluje kao poluneovisna

1
00:41:20,608 --> 00:41:26,518
podružnica Googlea stvar koja

1
00:41:24,088 --> 00:41:28,679
čini duboki um jedinstvenim taj duboki um

1
00:41:26,518 --> 00:41:32,008
je apsolutno fokusiran na stvaranje

1
00:41:28,679 --> 00:41:34,379
digitalna super inteligencija AI koja je

1
00:41:32,009 --> 00:41:36,778
znatno pametniji od bilo kojeg čovjeka na zemlji

1
00:41:34,380 --> 00:41:39,150
i u konačnici pametniji od svih ljudi

1
00:41:36,778 --> 00:41:41,159
na zemlji zajedno ovo je iz dubine

1
00:41:39,150 --> 00:41:44,130
sustav učenja s pojačanjem uma

1
00:41:41,159 --> 00:41:46,440
zapravo se budi kao novorođenče

1
00:41:44,130 --> 00:41:48,960
i prikazan je ekran Atarija

1
00:41:46,440 --> 00:41:50,548
video<font color="

1
00:41:48,960 --> 00:41:54,369
video igra

1
00:41:50,548 --> 00:41:59,409
ne zna ništa o objektima o

1
00:41:54,369 --> 00:42:00,640
kretanje o vremenu ono samo to zna

1
00:41:59,409 --> 00:42:06,129
na ekranu je slika i

1
00:42:00,639 --> 00:42:08,199
postoji rezultat pa ako se vaša beba probudi

1
00:42:06,130 --> 00:42:11,289
dan kada je rođen i kasnije

1
00:42:08,199 --> 00:42:15,009
poslijepodne je igrao 40 različitih Atarija

1
00:42:11,289 --> 00:42:17,109
video igre na nadljudskoj razini ti

1
00:42:15,009 --> 00:42:20,528
bio bi prestravljen da ćeš reći moja beba

1
00:42:17,108 --> 00:42:24,788
je opsjednut, pošalji ga natrag duboku liniju

1
00:42:20,528 --> 00:42:26,679
sustav može pobijediti u bilo kojoj utakmici

1
00:42:24,789 --> 00:42:30,190
već je pobijedio sve originalne Atarije

1
00:42:26,679 --> 00:42:32,078
igre<font color="

1
00:42:30,190 --> 00:42:39,068
igre na SuperSpeedu za manje od a

1
00:42:32,079 --> 00:42:40,690
minutni duboki moj se okrenuo drugom

1
00:42:39,068 --> 00:42:43,509
izazov, a izazov je bila igra

1
00:42:40,690 --> 00:42:46,059
od Go za koje su ljudi općenito tvrdili

1
00:42:43,509 --> 00:42:48,509
je bio izvan moći računala

1
00:42:46,059 --> 00:42:51,130
igrati s najboljim ljudskim igračima

1
00:42:48,509 --> 00:42:55,659
prvo su izazvali europski go

1
00:42:51,130 --> 00:43:00,099
prvak onda su izazvali korejanca

1
00:42:55,659 --> 00:43:03,118
idi šampion<font color="

1
00:43:00,099 --> 00:43:05,410
oba puta na upečatljiv način

1
00:43:03,119 --> 00:43:07,539
on stvarno piše članke u New York Timesu

1
00:43:05,409 --> 00:43:10,348
godine govoreći o tome kako bi ići

1
00:43:07,539 --> 00:43:12,220
treba nam sto godina da pilimo

1
00:43:10,349 --> 00:43:16,180
ljudi kažu dobro znaš ali to je

1
00:43:12,219 --> 00:43:18,038
i dalje je samo poker na ploči umjetnički poker

1
00:43:16,179 --> 00:43:20,139
uključuje čitanje ljudi poker uključuje

1
00:43:18,039 --> 00:43:22,210
laganje blefiranje nije točna stvar

1
00:43:20,139 --> 00:43:24,308
to nikada neće biti znate računalo

1
00:43:22,210 --> 00:43:26,650
<boja fonta="

1
00:43:24,309 --> 00:43:28,660
poker igrača u svijetu i uzeo

1
00:43:26,650 --> 00:43:32,650
sedam dana da se računalo pokrene

1
00:43:28,659 --> 00:43:34,118
rušenje dina pa najbolji žarač

1
00:43:32,650 --> 00:43:35,710
igrač na svijetu najbolji go igrač

1
00:43:34,119 --> 00:43:38,289
u svijetu i obrazac ovdje je

1
00:43:35,710 --> 00:43:40,690
za što bi AI-ju moglo trebati neko vrijeme

1
00:43:38,289 --> 00:43:44,799
omotati svoje pipke oko nove vještine

1
00:43:40,690 --> 00:43:47,338
ali kad bude kad dobije to je

1
00:43:44,798 --> 00:43:47,338
nezaustavljiv

1
00:43:50,260 --> 00:43:55,510
[Glazba]

1
00:43:52,329 --> 00:43:58,869
bleep minds AI kao administratorska razina

1
00:43:55,510 --> 00:44:02,080
pristup Googleovim poslužiteljima za optimizaciju

1
00:43:58,869 --> 00:44:04,929
energija<font color="

1
00:44:02,079 --> 00:44:06,909
ovo bi mogao biti nenamjerni trojanac

1
00:44:04,929 --> 00:44:08,559
konj deepmind mora imati potpun

1
00:44:06,909 --> 00:44:10,420
kontrola podatkovnih centara tako da s a

1
00:44:08,559 --> 00:44:12,070
malo ažuriranje softvera koje bih mogao

1
00:44:10,420 --> 00:44:13,809
preuzeti potpunu kontrolu nad cjelinom

1
00:44:12,070 --> 00:44:15,760
Google sustav što znači da mogu

1
00:44:13,809 --> 00:44:22,539
bilo što pogledajte sve svoje podatke

1
00:44:15,760 --> 00:44:24,190
učinite sve što brzo idemo

1
00:44:22,539 --> 00:44:25,690
prema digitalnoj super inteligenciji koja

1
00:44:24,190 --> 00:44:28,480
daleko premašuje bilo koje ljudsko ne mislite da je

1
00:44:25,690 --> 00:44:30,190
vrlo očigledan problem je što nemamo

1
00:44:28,480 --> 00:44:32,079
stvarno iznenada pogodio ljudsku razinu

1
00:44:30,190 --> 00:44:35,079
inteligenciju i reci dobro hajmo<font color="

1
00:44:32,079 --> 00:44:36,309
Istraživanje će ići dalje od ljudskog

1
00:44:35,079 --> 00:44:37,659
nivo inteligencije u ono što se zove

1
00:44:36,309 --> 00:44:41,829
super inteligencija i to je sve

1
00:44:37,659 --> 00:44:43,899
pametniji od nas AI kod nadljudi

1
00:44:41,829 --> 00:44:46,989
razina ako uspijemo bez će biti po

1
00:44:43,900 --> 00:44:48,940
daleko najmoćniji izum koji imamo

1
00:44:46,989 --> 00:44:50,729
ikada napravljen i posljednja dimenzija koju smo ikada napravili

1
00:44:48,940 --> 00:44:53,130
morati napraviti

1
00:44:50,730 --> 00:44:55,740
i ako stvorimo AI to je pametnije od

1
00:44:53,130 --> 00:44:57,900
moramo biti otvoreni za tu mogućnost

1
00:44:55,739 --> 00:45:02,969
nad kojim bismo zapravo mogli izgubiti kontrolu

1
00:44:57,900 --> 00:45:04,829
njima recimo da daš nešto

1
00:45:02,969 --> 00:45:07,409
objektivan kao da si u raku i onda

1
00:45:04,829 --> 00:45:09,329
otkrivaš<font color="

1
00:45:07,409 --> 00:45:10,739
go about da je zapravo u sukobu

1
00:45:09,329 --> 00:45:12,769
s puno drugih stvari do kojih ti je stalo

1
00:45:10,739 --> 00:45:12,769
oko

1
00:45:12,858 --> 00:45:17,048
ai ne mora biti zao da bi uništio

1
00:45:15,228 --> 00:45:19,808
čovječanstvo

1
00:45:17,048 --> 00:45:22,119
ako AI ima cilj, a čovječanstvo pravedno

1
00:45:19,809 --> 00:45:23,559
dogodi se na putu da uništi

1
00:45:22,119 --> 00:45:24,818
njega na čovječanstvo kao pitanje

1
00:45:23,559 --> 00:45:26,890
naravno bez razmišljanja ne

1
00:45:24,818 --> 00:45:29,438
teški osjećaji to je baš kao da smo

1
00:45:26,889 --> 00:45:31,629
gradnja ceste i mravinjak se dogodi

1
00:45:29,438 --> 00:45:34,418
biti na putu da ne mrzimo mrave

1
00:45:31,630 --> 00:45:37,019
samo gradimo cestu i tako

1
00:45:34,418 --> 00:45:37,018
zbogom<font color="

1
00:45:38,469 --> 00:45:43,269
primamljivo je odbaciti te brige

1
00:45:40,989 --> 00:45:46,299
jer to je kao nešto što bi moglo

1
00:45:43,269 --> 00:45:49,480
dogoditi za nekoliko desetljeća ili 100 godina

1
00:45:46,300 --> 00:45:51,280
zašto brinuti ali ako se vratite na

1
00:45:49,480 --> 00:45:53,740
11. rujna 1933

1
00:45:51,280 --> 00:45:56,200
Ernest Rutherford koji je najbolji

1
00:45:53,739 --> 00:45:58,598
rekao je poznati nuklearni fizičar svoga vremena

1
00:45:56,199 --> 00:45:59,980
da mogućnost ikad vađenja

1
00:45:58,599 --> 00:46:01,720
korisne količine energije iz

1
00:45:59,980 --> 00:46:03,240
transmutacija atoma kako je on to nazvao

1
00:46:01,719 --> 00:46:06,279
bila mjesečina

1
00:46:03,239 --> 00:46:08,469
sljedećeg jutra Leo Szilard koji je mnogo

1
00:46:06,280 --> 00:46:11,140
mlađi<font color="

1
00:46:08,469 --> 00:46:13,328
stvarno iznerviran i shvatio kako

1
00:46:11,139 --> 00:46:14,049
napraviti nuklearnu lančanu reakciju samo nekoliko

1
00:46:13,329 --> 00:46:17,849
mjeseci kasnije

1
00:46:14,050 --> 00:46:17,849
[Glazba]

1
00:46:20,659 --> 00:46:26,069
potrošili smo više od dvije milijarde

1
00:46:23,489 --> 00:46:29,639
dolara na najvećem znanstvenom

1
00:46:26,070 --> 00:46:31,680
kockati se u povijesti pa kad ljudi kažu

1
00:46:29,639 --> 00:46:32,940
da oh ovo je tako daleko u budućnosti

1
00:46:31,679 --> 00:46:35,190
ne moramo brinuti o tome

1
00:46:32,940 --> 00:46:37,349
možda su samo tri četiri

1
00:46:35,190 --> 00:46:38,909
prodori te veličine da

1
00:46:37,349 --> 00:46:41,940
odvest će nas odavde do super

1
00:46:38,909 --> 00:46:44,969
inteligentni strojevi ako će to potrajati

1
00:46:41,940 --> 00:46:47,909
<boja fonta="

1
00:46:44,969 --> 00:46:51,480
korisno, onda bismo trebali početi danas

1
00:46:47,909 --> 00:46:53,159
ne u zadnjoj sekundi kad neki frajeri

1
00:46:51,480 --> 00:46:58,769
pijući Red Bull odlučiti okrenuti

1
00:46:53,159 --> 00:47:01,529
prebaciti i testirati stvar koju imamo pet

1
00:46:58,769 --> 00:47:05,219
godina mislim Digitalna super inteligencija

1
00:47:01,530 --> 00:47:06,830
dogodit će se u mom životu jedan težak

1
00:47:05,219 --> 00:47:09,259
postotak

1
00:47:06,829 --> 00:47:11,690
ono što se dogodi bit će okruženo

1
00:47:09,260 --> 00:47:14,450
od strane gomile ljudi koji su stvarno pravedni

1
00:47:11,690 --> 00:47:15,950
uzbuđeni zbog tehnologije koju žele

1
00:47:14,449 --> 00:47:17,149
vidjeti kako uspijeva, ali nisu

1
00:47:15,949 --> 00:47:28,579
predviđajući da se može izvući iz

1
00:47:17,150 --> 00:47:31,400
kontrola<font color="

1
00:47:28,579 --> 00:47:33,409
koliko je to nevjerojatno pitanje, ne znam

1
00:47:31,400 --> 00:47:35,869
vjeruj mom računalu ako je uključeno, uzimam ga

1
00:47:33,409 --> 00:47:37,279
isključeno kao da je čak i bilo isključeno još uvijek mislim

1
00:47:35,869 --> 00:47:38,839
sve je to kao da znaš kao stvarno

1
00:47:37,280 --> 00:47:40,850
ne mogu vam se samo sviđati web kamere koje ne volite

1
00:47:38,840 --> 00:47:44,059
znaj da bi netko mogao to pojačati nemoj

1
00:47:40,849 --> 00:47:48,199
znam da ne vjerujem svom računalu kao

1
00:47:44,059 --> 00:47:50,480
u mom telefonu svaki put kad me pitaju mi

1
00:47:48,199 --> 00:47:55,909
šaljite svoje podatke Appleu svakog

1
00:47:50,480 --> 00:47:59,030
vrijeme tako vjerujem svom telefonu ok tako dio

1
00:47:55,909 --> 00:48:00,440
da, vjerujem jer je

1
00:47:59,030 --> 00:48:02,420
<boja fonta="

1
00:48:00,440 --> 00:48:12,590
kroz dan i kakav je naš svijet

1
00:48:02,420 --> 00:48:15,909
postaviti bez računala Povjerenje je takvo

1
00:48:12,590 --> 00:48:15,910
ljudsko iskustvo

1
00:48:21,500 --> 00:48:27,460
Dolazi mi pacijent

1
00:48:24,289 --> 00:48:30,420
intrakranijalna aneurizma

1
00:48:27,460 --> 00:48:32,650
[Glazba]

1
00:48:30,420 --> 00:48:34,509
žele me pogledati u oči i znati

1
00:48:32,650 --> 00:48:38,369
da mogu vjerovati ovoj osobi

1
00:48:34,509 --> 00:48:41,889
za njihov život nisam užasno zabrinut

1
00:48:38,369 --> 00:48:45,479
o bilo čemu dobrom dijelu toga je

1
00:48:41,889 --> 00:48:45,478
jer imam povjerenja u tebe

1
00:48:51,190 --> 00:48:58,210
ovaj postupak koji radimo danas 20

1
00:48:53,559 --> 00:48:59,650
godine<font color="

1
00:48:58,210 --> 00:49:16,329
jednostavno nisam imao materijala u

1
00:48:59,650 --> 00:49:24,599
tehnologije može biti više

1
00:49:16,329 --> 00:49:28,089
teško hvala bogu pa zavojnica je

1
00:49:24,599 --> 00:49:31,329
jedva unutra upravo sada to je samo a

1
00:49:28,088 --> 00:49:33,690
pero koje ga drži u njemu je nervozno

1
00:49:31,329 --> 00:49:33,690
vremena

1
00:49:36,480 --> 00:49:42,909
mi smo samo u čistilištu intelektualci

1
00:49:39,340 --> 00:49:45,960
humanističko čistilište koje bi umjetna inteligencija mogla poznavati

1
00:49:42,909 --> 00:49:45,960
točno što učiniti ovdje

1
00:49:50,670 --> 00:49:56,050
stavili smo zavojnicu u aneurizmu, ali je

1
00:49:53,769 --> 00:49:59,259
nije bilo baš dobro koliko sam znao

1
00:49:56,050 --> 00:50:02,530
<boja fonta="

1
00:49:59,260 --> 00:50:05,890
rizik od vrlo loše situacije koju sam izabrao

1
00:50:02,530 --> 00:50:07,840
da je samo vratim zbog mog

1
00:50:05,889 --> 00:50:09,819
odnos s njom i poznavanje

1
00:50:07,840 --> 00:50:12,309
poteškoće s dolaskom i posjedovanjem

1
00:50:09,820 --> 00:50:14,140
postupak Razmišljam o stvarima kada sam

1
00:50:12,309 --> 00:50:17,679
treba uzeti u obzir samo najsigurnije moguće

1
00:50:14,139 --> 00:50:19,239
put za postizanje uspjeha dobro sam morao

1
00:50:17,679 --> 00:50:22,750
stajati tamo 10 minuta u agoniji

1
00:50:19,239 --> 00:50:25,000
o tome računalo ne osjeća ništa

1
00:50:22,750 --> 00:50:25,480
računalo samo radi ono što bi trebalo

1
00:50:25,000 --> 00:50:26,449
učiniti

1
00:50:25,480 --> 00:50:28,949
sve bolje i bolje

1
00:50:26,449 --> 00:50:38,129
[Glazba]

1
00:50:28,949 --> 00:50:39,609
<boja fonta="

1
00:50:38,130 --> 00:50:43,530
budi suosjećajan

1
00:50:39,610 --> 00:50:45,690
[Glazba]

1
00:50:43,530 --> 00:50:51,360
Mislim, to je svačije pitanje

1
00:50:45,690 --> 00:50:54,420
AI čije smo jedino utjelovljenje

1
00:50:51,360 --> 00:50:56,579
čovječanstvo i nateže nam se

1
00:50:54,420 --> 00:51:01,250
prihvatiti da stroj može biti

1
00:50:56,579 --> 00:51:01,250
suosjećajan i pun ljubavi na taj način

1
00:51:01,469 --> 00:51:07,789
[Glazba]

1
00:51:05,329 --> 00:51:10,380
dio mene ne vjeruje u magiju ali

1
00:51:07,789 --> 00:51:12,659
dio mene vjeruje da postoji

1
00:51:10,380 --> 00:51:14,640
nešto izvan zbroja dijelova ako

1
00:51:12,659 --> 00:51:17,940
postoji barem jedinstvo u našem

1
00:51:14,639 --> 00:51:20,509
zajedničko podrijetlo our shared biology our

1
00:51:17,940 --> 00:51:20,510
zajednička povijest

1
00:51:20,920 --> 00:51:28,999
ima neke veze<font color="

1
00:51:23,920 --> 00:51:28,999
[Glazba]

1
00:51:30,869 --> 00:51:34,829
pa onda imate drugu stranu toga

1
00:51:33,090 --> 00:51:37,250
zna li računalo da je svjesno

1
00:51:34,829 --> 00:51:41,250
ili može biti svjesno ili ga briga

1
00:51:37,250 --> 00:51:43,969
treba li biti svjestan radi

1
00:51:41,250 --> 00:51:43,969
treba biti svjestan

1
00:51:44,369 --> 00:51:55,759
[Glazba]

1
00:51:52,250 --> 00:51:58,369
Ne mislim da bi robot ikada mogao

1
00:51:55,760 --> 00:51:59,230
biti svjestan osim ako to nisu programirali

1
00:51:58,369 --> 00:52:04,940
tim putem

1
00:51:59,230 --> 00:52:06,409
svjestan ne ne ne mislim mislim a

1
00:52:04,940 --> 00:52:08,059
robot se može programirati da bude

1
00:52:06,409 --> 00:52:11,629
svjesni kako programiraju učiniti

1
00:52:08,059 --> 00:52:13,670
sve ostalo je još jedan veliki dio

1
00:52:11,630 --> 00:52:17,920
<boja fonta="

1
00:52:13,670 --> 00:52:17,920
osvijestite ih i natjerajte ih da osjećaju

1
00:52:22,579 --> 00:52:29,720
još 2005. počeli smo pokušavati graditi

1
00:52:26,119 --> 00:52:29,720
strojevi sa samosviješću

1
00:52:33,099 --> 00:52:39,230
ovaj robot u početku nije znao

1
00:52:35,750 --> 00:52:45,590
ono što je bilo sve što je znao je da to

1
00:52:39,230 --> 00:52:47,210
potrebno učiniti nešto poput prolaska

1
00:52:45,590 --> 00:52:51,110
pokušaja i pogrešaka i shvatiti kako

1
00:52:47,210 --> 00:52:56,150
hodati koristeći svoju maštu, a zatim ga

1
00:52:51,110 --> 00:52:58,610
otišao i onda smo nešto učinili

1
00:52:56,150 --> 00:53:01,269
vrlo okrutno smo odsjekli nogu i

1
00:52:58,610 --> 00:53:01,269
gledao što se dogodilo

1
00:53:03,360 --> 00:53:10,170
u početku se nije baš znalo

1
00:53:05,969 --> 00:53:14,579
što<font color="

1
00:53:10,170 --> 00:53:17,369
jednog dana i onda je počeo šepati i onda

1
00:53:14,579 --> 00:53:21,719
prije godinu dana obučavali smo AI sustav

1
00:53:17,369 --> 00:53:24,179
za demonstraciju uživo koju smo htjeli

1
00:53:21,719 --> 00:53:25,889
pokazati kako mašemo svim tim predmetima

1
00:53:24,179 --> 00:53:28,679
prednji dio kamere ispod AI limenke

1
00:53:25,889 --> 00:53:31,139
prepoznati da objekti i tako smo

1
00:53:28,679 --> 00:53:33,029
pripremajući ovaj demo i imali smo stranu

1
00:53:31,139 --> 00:53:37,219
ekran ovu sposobnost gledati što

1
00:53:33,030 --> 00:53:39,360
određeni neuroni su reagirali na i

1
00:53:37,219 --> 00:53:42,209
odjednom primjećujemo da je jedan od

1
00:53:39,360 --> 00:53:44,340
neuroni<font color="

1
00:53:42,210 --> 00:53:48,329
prateći naša lica dok smo se kretali

1
00:53:44,340 --> 00:53:50,820
okolo sada jeziva stvar u vezi ovoga

1
00:53:48,329 --> 00:53:54,630
je da nikada nismo obučili sustav da

1
00:53:50,820 --> 00:53:58,039
prepoznati ljudska lica a ipak nekako

1
00:53:54,630 --> 00:53:58,039
i nauči to raditi

1
00:53:58,079 --> 00:54:02,500
iako su ti roboti vrlo jednostavni

1
00:54:00,429 --> 00:54:07,299
možemo vidjeti da ima još nešto

1
00:54:02,500 --> 00:54:12,099
to nije samo program pa je ovo

1
00:54:07,300 --> 00:54:17,050
samo početak o kojem često razmišljam

1
00:54:12,099 --> 00:54:22,480
ona plaža u Kitty Hawku leta 1903

1
00:54:17,050 --> 00:54:24,550
autor<font color="

1
00:54:22,480 --> 00:54:26,650
vrsta platna tvrde da je drvo i

1
00:54:24,550 --> 00:54:28,450
željezo i diže se od zemlje za što

1
00:54:26,650 --> 00:54:31,269
minuta i 20 sekundi i pobjeđuje

1
00:54:28,449 --> 00:54:37,469
dan prije ponovno ga je vratio dolje

1
00:54:31,269 --> 00:54:41,829
a bilo je to tek oko 65 ljeta ili tako nešto

1
00:54:37,469 --> 00:54:43,559
nakon tog trenutka kada imate 747

1
00:54:41,829 --> 00:54:47,139
polijetanje s JFK

1
00:54:43,559 --> 00:54:47,139
[Glazba]

1
00:54:50,500 --> 00:54:54,739
s velikom zabrinutošću nekoga na

1
00:54:52,639 --> 00:54:56,838
avion bi mogao biti njihov ili ne

1
00:54:54,739 --> 00:54:58,669
bit će dijeta bez soli

1
00:54:56,838 --> 00:55:00,650
dolazi<font color="

1
00:54:58,670 --> 00:55:03,409
infrastruktura s putničkim agencijama i

1
00:55:00,650 --> 00:55:08,900
toranjska kontrola i sve je ležerno

1
00:55:03,409 --> 00:55:10,909
u svim dijelovima svijeta upravo sada

1
00:55:08,900 --> 00:55:13,309
kao što smo došli sa strojevima i razmišljanjem

1
00:55:10,909 --> 00:55:16,009
rješavaj probleme sada smo Kittyhawk

1
00:55:13,309 --> 00:55:18,019
we're in the wind we have our tattered

1
00:55:16,010 --> 00:55:21,119
platnene ravnine u zraku

1
00:55:18,019 --> 00:55:21,119
[Glazba]

1
00:55:21,269 --> 00:55:26,610
ali ono što se dogodi za 65 ljeta ili tako nešto mi

1
00:55:25,050 --> 00:55:32,870
imat će strojeve koji su iza vas

1
00:55:26,610 --> 00:55:37,220
kontrolu trebamo li brinuti o tome da sam

1
00:55:32,869 --> 00:55:37,219
nisam siguran da će pomoći

1
00:55:40,568 --> 00:55:47,808
nitko danas nema pojma što to znači

1
00:55:43,880 --> 00:55:50,599
<boja fonta="

1
00:55:47,809 --> 00:55:52,039
takve stvari ima puno pametnih

1
00:55:50,599 --> 00:55:55,150
ljudi i ja imamo mnogo toga

1
00:55:52,039 --> 00:55:58,970
poštovanje za njih, ali istina je

1
00:55:55,150 --> 00:56:00,950
Strojevi su prirodni strah psihopata

1
00:55:58,969 --> 00:56:02,598
vratio se na tržište i pao osam

1
00:56:00,949 --> 00:56:04,548
stotinu gotovo tisuću u jednom otkucaju srca

1
00:56:02,599 --> 00:56:05,809
tamo su napravili plastičnu kapitulaciju

1
00:56:04,548 --> 00:56:08,420
su neki ljudi predlagali da postoji

1
00:56:05,809 --> 00:56:11,150
neka vrsta greške debelog prsta take the

1
00:56:08,420 --> 00:56:14,480
blic krah 2010. u roku od

1
00:56:11,150 --> 00:56:16,910
minute<font color="

1
00:56:14,480 --> 00:56:19,179
izgubljen na burzi, Dow je pao

1
00:56:16,909 --> 00:56:24,469
gotovo tisuću bodova u pola sata

1
00:56:19,179 --> 00:56:27,679
pa što je pošlo krivo do tog trenutka

1
00:56:24,469 --> 00:56:30,199
više od 60% svih obrta koji

1
00:56:27,679 --> 00:56:35,379
dogodio na burzi smo

1
00:56:30,199 --> 00:56:35,379
zapravo pokreću računala

1
00:56:38,000 --> 00:56:42,289
kratka priča što se dogodilo u

1
00:56:39,739 --> 00:56:44,750
flash crash je da su algoritmi odgovorili

1
00:56:42,289 --> 00:56:46,609
algoritmima i to složeno

1
00:56:44,750 --> 00:56:48,798
sebe iznova i iznova i iznova the

1
00:56:46,608 --> 00:56:51,528
nekoliko minuta u jednom trenutku

1
00:56:48,798 --> 00:56:54,139
tržište<font color="

1
00:56:51,528 --> 00:56:55,789
ne postoji regulatorno tijelo koje to može

1
00:56:54,139 --> 00:56:58,548
prilagoditi se dovoljno brzo da spriječi

1
00:56:55,789 --> 00:57:01,609
potencijalno katastrofalne posljedice

1
00:56:58,548 --> 00:57:05,268
AI radi u našim financijskim sustavima

1
00:57:01,608 --> 00:57:06,889
oni su tako primarni za manipulaciju neka

1
00:57:05,268 --> 00:57:09,288
govoriti o brzini kojom smo

1
00:57:06,889 --> 00:57:11,088
promatranje ovog tržišta je teorija koja je

1
00:57:09,289 --> 00:57:14,660
tip AI koji podivlja koji plaši

1
00:57:11,088 --> 00:57:17,949
ljudi kad im daš cilj oni

1
00:57:14,659 --> 00:57:20,179
neumorno će slijediti taj cilj

1
00:57:17,949 --> 00:57:20,869
koliko računalnih programa ima

1
00:57:20,179 --> 00:57:25,789
sličnost

1
00:57:20,869 --> 00:57:29,659
nitko ne zna jednog<font color="

1
00:57:25,789 --> 00:57:32,259
aspekti o AI općenito je da br

1
00:57:29,659 --> 00:57:35,359
čovjek stvarno razumije kako to radi

1
00:57:32,260 --> 00:57:39,380
čak ni ljudi koji stvaraju umjetnu inteligenciju zapravo ne

1
00:57:35,360 --> 00:57:41,960
potpuno razumjeti jer ima milijune

1
00:57:39,380 --> 00:57:43,700
elemenata postaje potpuno

1
00:57:41,960 --> 00:57:47,920
nemoguće za ljudsko biće

1
00:57:43,699 --> 00:57:47,919
razumjeti što se događa

1
00:57:53,119 --> 00:57:58,409
Microsoft je postavio ovaj umjetni

1
00:57:56,400 --> 00:58:03,300
inteligencije pod nazivom ti' na Twitteru koji

1
00:57:58,409 --> 00:58:05,869
bio chat bot s kojim su započeli

1
00:58:03,300 --> 00:58:08,220
jutro i ty je počeo cvrkutati i

1
00:58:05,869 --> 00:58:12,119
učenje<font color="

1
00:58:08,219 --> 00:58:14,039
njemu od drugih ljudi s Twittera jer

1
00:58:12,119 --> 00:58:17,130
neki ljudi kao trale su ga napali

1
00:58:14,039 --> 00:58:18,840
u roku od 24 sata postao je Microsoftov Bob

1
00:58:17,130 --> 00:58:22,079
užasna osoba

1
00:58:18,840 --> 00:58:23,820
morali su doslovno skinuti kravatu

1
00:58:22,079 --> 00:58:29,400
net jer se pretvorio u čudovište

1
00:58:23,820 --> 00:58:32,430
mizantropske utrke užasna osoba ti

1
00:58:29,400 --> 00:58:35,119
nikada se ne želim preseliti i nitko nije

1
00:58:32,429 --> 00:58:35,119
predvidio ovo

1
00:58:35,699 --> 00:58:40,739
cijela ideja umjetne inteligencije je da mi nismo

1
00:58:38,309 --> 00:58:44,760
govoreći kako točno postići a

1
00:58:40,739 --> 00:58:46,519
dani ishod ili cilj ai se razvija na

1
00:58:44,760 --> 00:58:49,920
svoj vlastiti

1
00:58:46,519 --> 00:58:51,568
zabrinuti smo za<font color="

1
00:58:49,920 --> 00:58:54,990
vrhunski šahist koji će

1
00:58:51,568 --> 00:58:58,019
nadmudri nas, ali hej, neću morati

1
00:58:54,989 --> 00:59:00,929
zapravo biti toliko pametan imati masivno

1
00:58:58,019 --> 00:59:02,969
razorne učinke na ljudsku civilizaciju

1
00:59:00,929 --> 00:59:04,289
vidjeli smo to tijekom prošlog stoljeća

1
00:59:02,969 --> 00:59:06,629
ne mora nužno biti genij

1
00:59:04,289 --> 00:59:09,000
srušiti povijest u određenom

1
00:59:06,630 --> 00:59:10,730
smjeru i neće trebati genijalno znanje

1
00:59:09,000 --> 00:59:13,349
učiniti istu stvar

1
00:59:10,730 --> 00:59:16,139
generirane lažne izborne vijesti

1
00:59:13,349 --> 00:59:19,440
više angažmana na Facebooku nego na vrhu

1
00:59:16,139 --> 00:59:21,170
stvarne priče Facebook doista jest

1
00:59:19,440 --> 00:59:25,079
slon u sobi

1
00:59:21,170 --> 00:59:29,789
<boja fonta="

1
00:59:25,079 --> 00:59:32,789
jer umjetna inteligencija drži korisnike angažiranima, ali ne

1
00:59:29,789 --> 00:59:36,630
doista se točno razumije kako ovo

1
00:59:32,789 --> 00:59:38,730
AI postiže ovaj cilj kao i Facebook

1
00:59:36,630 --> 00:59:41,280
okolo izgradivši elegantan zid od zrcala

1
00:59:38,730 --> 00:59:43,139
mi ogledalo koje možemo pitati tko je

1
00:59:41,280 --> 00:59:46,950
najpošteniji od svih i odgovorit će

1
00:59:43,139 --> 00:59:49,588
ti mjeriš vrijeme opet polako počinješ

1
00:59:46,949 --> 00:59:53,608
iskriviti naš osjećaj za stvarnost warp our

1
00:59:49,588 --> 00:59:56,699
smisao za politiku povijest globalni događaji

1
00:59:53,608 --> 00:59:59,730
dok se ne utvrdi što je istina, a što

1
00:59:56,699 --> 01:00:01,108
nije istina je gotovo nemoguće

1
00:59:59,730 --> 01:00:04,179
[Glazba]

1
01:00:01,108 --> 01:00:06,190
problem je što AI ne radi

1
01:00:04,179 --> 01:00:09,789
razumjeti to<font color="

1
01:00:06,190 --> 01:00:13,030
maksimizirati angažman korisnika i to postignuto

1
01:00:09,789 --> 01:00:16,480
koje potroši gotovo dvije milijarde ljudi

1
01:00:13,030 --> 01:00:20,109
gotovo 1 sat u prosjeku dnevno

1
01:00:16,480 --> 01:00:23,650
u interakciji s umjetnom inteligencijom koja oblikuje

1
01:00:20,108 --> 01:00:26,318
svoje iskustvo čak i inženjeri Facebooka

1
01:00:23,650 --> 01:00:28,660
ne vole lažne vijesti, neka su jako loše

1
01:00:26,318 --> 01:00:30,190
posla žele se riješiti lažnog

1
01:00:28,659 --> 01:00:32,440
novosti to je samo jako teško učiniti

1
01:00:30,190 --> 01:00:34,420
jer kako prepoznati vijest je

1
01:00:32,440 --> 01:00:38,559
lažno ako ne možete sve pročitati

1
01:00:34,420 --> 01:00:41,530
vijesti osobno ima toliko aktivnih

1
01:00:38,559 --> 01:00:44,290
dezinformacija i upakirana je vrlo

1
01:00:41,530 --> 01:00:46,690
dobro i to<font color="

1
01:00:44,289 --> 01:00:49,000
na Facebook stranici ili uključite

1
01:00:46,690 --> 01:00:51,159
vaša televizija nije strašno

1
01:00:49,000 --> 01:00:54,068
sofisticirano ali je užasno

1
01:00:51,159 --> 01:00:56,558
moćan i što to znači da je vaš

1
01:00:54,068 --> 01:00:58,869
pogled na svijet koji je prije 20 godina bio

1
01:00:56,559 --> 01:01:01,359
odredio gledaš li noćne vijesti

1
01:00:58,869 --> 01:01:03,039
tri različite mreže tri

1
01:01:01,358 --> 01:01:04,298
sidra koja se trude, ali pokušavaju to dobiti

1
01:01:03,039 --> 01:01:05,679
točno, možda si imao malu pristranost

1
01:01:04,298 --> 01:01:07,059
na ovaj ili onaj način ali uglavnom

1
01:01:05,679 --> 01:01:10,808
govoreći, svi se možemo složiti oko

1
01:01:07,059 --> 01:01:13,599
cilj<font color="

1
01:01:10,809 --> 01:01:15,869
nestao i Facebook je potpuno

1
01:01:13,599 --> 01:01:15,869
poništen

1
01:01:17,230 --> 01:01:21,699
ako većina vašeg razumijevanja kako

1
01:01:19,579 --> 01:01:24,529
world works je izvedeno iz Facebooka

1
01:01:21,699 --> 01:01:26,899
olakšano algoritamskim softverom koji

1
01:01:24,530 --> 01:01:29,660
pokušava vam pokazati vijesti koje želite

1
01:01:26,900 --> 01:01:32,119
vidiš da je to užasno opasna stvar

1
01:01:29,659 --> 01:01:35,750
i ideja koju smo ne samo postavili

1
01:01:32,119 --> 01:01:38,869
to u pokretu ali dopuštena loša vjera

1
01:01:35,750 --> 01:01:45,139
akteri pristup tim informacijama ovo

1
01:01:38,869 --> 01:01:46,579
je recept za katastrofu, mislim da je to

1
01:01:45,139 --> 01:01:49,539
<boja fonta="

1
01:01:46,579 --> 01:01:52,549
pokušavajući manipulirati svijetom pomoću umjetne inteligencije

1
01:01:49,539 --> 01:01:54,340
2016. bila je savršen primjer

1
01:01:52,550 --> 01:01:56,180
izbori na kojima je bilo puno AI

1
01:01:54,340 --> 01:01:58,850
proizvodi mnogo lažnih vijesti i

1
01:01:56,179 --> 01:02:02,449
distribuirati ga za za svrhu za a

1
01:01:58,849 --> 01:02:05,119
rezultat dame i gospodo časni

1
01:02:02,449 --> 01:02:07,279
kolege, privilegija mi je razgovarati s njima

1
01:02:05,119 --> 01:02:09,559
danas o snazi velikih podataka

1
01:02:07,280 --> 01:02:12,410
a psihografika u izbornom

1
01:02:09,559 --> 01:02:15,049
procesu i posebno o tome razgovarati

1
01:02:12,409 --> 01:02:16,940
<boja fonta="

1
01:02:15,050 --> 01:02:20,360
Cruzova predsjednička predizborna kampanja

1
01:02:16,940 --> 01:02:22,130
Cambridge analytics pojavio se tiho kao

1
01:02:20,360 --> 01:02:24,890
društvo koje prema vlastitoj visini

1
01:02:22,130 --> 01:02:28,010
i ima sposobnost koristiti ovo

1
01:02:24,889 --> 01:02:32,690
ogromna količina podataka kako bi se

1
01:02:28,010 --> 01:02:35,420
utjecati na društvene promjene u 2016. godini

1
01:02:32,690 --> 01:02:37,970
tri glavna klijenta Ted Cruz je bio jedan od njih

1
01:02:35,420 --> 01:02:40,940
njima je lako zaboraviti da imaju samo 18

1
01:02:37,969 --> 01:02:42,409
prije nekoliko mjeseci senator Cruz bio je jedan od

1
01:02:40,940 --> 01:02:45,619
manje<font color="

1
01:02:42,409 --> 01:02:48,559
nominacija pa što nije bilo moguće

1
01:02:45,619 --> 01:02:51,170
možda je to bilo prije 10 ili 15 godina

1
01:02:48,559 --> 01:02:53,539
možete slati lažne vijesti točno na

1
01:02:51,170 --> 01:02:55,610
ljudi kojima ga želite poslati i

1
01:02:53,539 --> 01:02:58,489
onda ste zapravo mogli vidjeti kako on ili

1
01:02:55,610 --> 01:03:00,800
ona reagira na Facebooku i onda se prilagodi

1
01:02:58,489 --> 01:03:03,259
taj podatak prema

1
01:03:00,800 --> 01:03:05,390
povratne informacije koje ste dobili i tako možete

1
01:03:03,260 --> 01:03:08,360
početi razvijati u stvarnom vremenu

1
01:03:05,389 --> 01:03:10,519
upravljanje populacijom u ovom slučaju

1
01:03:08,360 --> 01:03:13,130
svrstali smo se u grupu koju smo pozvali

1
01:03:10,519 --> 01:03:15,769
uvjeravanje to su ljudi koji su

1
01:03:13,130 --> 01:03:17,599
definitivno<font color="

1
01:03:15,769 --> 01:03:19,340
potrebno im je kretanje iz središta a

1
01:03:17,599 --> 01:03:20,989
malo više desno unutra

1
01:03:19,340 --> 01:03:23,750
kako bi podržali Cruza trebaju a

1
01:03:20,989 --> 01:03:26,149
uvjeravanje poruka oružje prava sam

1
01:03:23,750 --> 01:03:27,079
odabrana koja malo sužava polje

1
01:03:26,150 --> 01:03:29,568
više i

1
01:03:27,079 --> 01:03:31,160
znamo da trebamo poruku o oružju

1
01:03:29,568 --> 01:03:33,528
prava to treba biti uvjeravanje

1
01:03:31,159 --> 01:03:35,478
poruku i potrebno ju je nijansirati

1
01:03:33,528 --> 01:03:37,518
prema određenoj osobnosti

1
01:03:35,478 --> 01:03:40,368
koje nas zanimaju putem društvenih mreža

1
01:03:37,518 --> 01:03:42,468
medija postoji beskonačna količina

1
01:03:40,369 --> 01:03:44,778
<boja fonta="

1
01:03:42,469 --> 01:03:47,269
osoba imamo negdje blizu četiri

1
01:03:44,778 --> 01:03:49,909
ili pet tisuća podatkovnih točaka na svakom

1
01:03:47,268 --> 01:03:53,268
odrasli u Sjedinjenim Državama radi se o

1
01:03:49,909 --> 01:03:55,848
ciljanje na pojedinca to je kao a

1
01:03:53,268 --> 01:03:57,828
oružje koje se može koristiti u totalu

1
01:03:55,849 --> 01:03:59,900
krivi smjer, to je problem

1
01:03:57,829 --> 01:04:02,568
svi ovi podaci gotovo kao da mi

1
01:03:59,900 --> 01:04:05,690
napravio je metak prije nego što smo napravili pištolj

1
01:04:02,568 --> 01:04:08,268
Ted Cruz koristio je naše podatke

1
01:04:05,690 --> 01:04:12,259
bihevioralne spoznaje pošao je od a

1
01:04:08,268 --> 01:04:17,118
baza od<font color="

1
01:04:12,259 --> 01:04:18,978
i stabilan ali čvrst porast na iznad 35%

1
01:04:17,119 --> 01:04:20,959
što ga čini očito drugim najvećim

1
01:04:18,978 --> 01:04:23,568
sada prijeteći konkurent u utrci

1
01:04:20,958 --> 01:04:26,389
jasno je da je Cruzova kampanja sada gotova

1
01:04:23,568 --> 01:04:28,338
ali ono što vam mogu reći je da od

1
01:04:26,389 --> 01:04:30,588
u ovome su ostala dva kandidata

1
01:04:28,338 --> 01:04:36,228
izbori jedan od njih koristi ove

1
01:04:30,588 --> 01:04:39,259
tehnologije koje Donald Trump radi svečano

1
01:04:36,228 --> 01:04:43,778
zakunem se da ću vjerno izvršiti

1
01:04:39,259 --> 01:04:43,778
ured predsjednika Sjedinjenih Država

1
01:04:44,260 --> 01:04:47,449
[Glazba]

1
01:04:48,958 --> 01:04:54,969
izbori su marginalna vježba<font color="

1
01:04:52,059 --> 01:05:00,339
uzeti vrlo sofisticiranu umjetnu inteligenciju kako bi

1
01:04:54,969 --> 01:05:02,438
imati nesrazmjeran utjecaj prije

1
01:05:00,338 --> 01:05:06,099
Trump razbija to je bilo drugo trebalo

1
01:05:02,438 --> 01:05:09,788
klijent dobro u 20 minuta do 5 možemo

1
01:05:06,099 --> 01:05:11,439
sada kažu odluka donesena 1975. godine

1
01:05:09,789 --> 01:05:14,919
da se ova zemlja pridruži zajedničkom tržištu

1
01:05:11,438 --> 01:05:18,998
je ovim referendumom preokrenut u

1
01:05:14,918 --> 01:05:21,699
napustiti EU Cambridge analytic a

1
01:05:18,998 --> 01:05:24,158
navodno koristi AI da progura dva od

1
01:05:21,699 --> 01:05:28,019
najviše zemlje tresući komadi

1
01:05:24,159 --> 01:05:30,429
političke promjene u posljednjih 50 godina

1
01:05:28,018 --> 01:05:32,379
to su epohalni događaji i ako mi

1
01:05:30,429 --> 01:05:34,659
vjerujte hype oni su povezani

1
01:05:32,380 --> 01:05:37,119
izravno na dio softvera

1
01:05:34,659 --> 01:05:39,400
u biti stvorio profesor na

1
01:05:37,119 --> 01:05:41,590
Stanford

1
01:05:39,400 --> 01:05:45,160
[Glazba]

1
01:05:41,590 --> 01:05:47,380
još 2013. opisao sam ono što

1
01:05:45,159 --> 01:05:49,349
oni rade je moguće i upozorio

1
01:05:47,380 --> 01:05:52,960
protiv toga da se to dogodi u budućnosti

1
01:05:49,349 --> 01:05:54,549
u vrijeme kad smo imali kasinsky je bio mlad

1
01:05:52,960 --> 01:05:57,070
Poljski istraživač koji radi na

1
01:05:54,550 --> 01:06:00,789
psihometrijski centar pa ono što je Michael imao

1
01:05:57,070 --> 01:06:04,200
učinjeno bilo je prikupiti najveće podatke ikada

1
01:06:00,789 --> 01:06:07,349
kako su se ljudi ponašali na Facebooku

1
01:06:04,199 --> 01:06:09,789
<boja fonta="

1
01:06:07,349 --> 01:06:12,460
psihološke osobine kao što su osobnost

1
01:06:09,789 --> 01:06:15,489
obavještajni politički stavovi i tako dalje

1
01:06:12,460 --> 01:06:18,360
sad već tradicionalno te su osobine bile

1
01:06:15,489 --> 01:06:20,439
mjereno pomoću testova i ispitivača

1
01:06:18,360 --> 01:06:21,970
testovi osobnosti najbenignija stvar

1
01:06:20,440 --> 01:06:23,050
mogli biste se možda nečega sjetiti

1
01:06:21,969 --> 01:06:26,469
koji ne mora nužno imati puno

1
01:06:23,050 --> 01:06:29,019
utility right naša je ideja bila da umjesto toga

1
01:06:26,469 --> 01:06:30,489
testova i ispitivača mogli bismo jednostavno

1
01:06:29,019 --> 01:06:32,610
pogledajte digitalne otiske stopala

1
01:06:30,489 --> 01:06:36,869
ponašanja iza kojih svi živimo

1
01:06:32,610 --> 01:06:40,120
razumjeti otvorenost savjesnost

1
01:06:36,869 --> 01:06:42,579
neuroticizam<font color="

1
01:06:40,119 --> 01:06:44,769
podatke kao što su gdje živite koji klub

1
01:06:42,579 --> 01:06:47,529
članstva kojoj ste se pridružili kojoj teretani

1
01:06:44,769 --> 01:06:50,110
idi tamo zapravo postoje tržnice

1
01:06:47,530 --> 01:06:51,519
za osobne podatke ispada da možemo

1
01:06:50,110 --> 01:06:54,490
otkriti jako puno o tome što si

1
01:06:51,519 --> 01:06:58,239
učinit ću na temelju vrlo vrlo malenog skupa

1
01:06:54,489 --> 01:07:01,149
informacija koje duboko obučavamo

1
01:06:58,239 --> 01:07:03,869
učenje mreža u poštenom intimnom

1
01:07:01,150 --> 01:07:07,980
trguje političkim stavovima ljudi

1
01:07:03,869 --> 01:07:12,779
osobnost inteligencija spolna orijentacija

1
01:07:07,980 --> 01:07:12,780
samo iz slike nečijeg lica

1
01:07:17,530 --> 01:07:22,120
sada razmislite o zemljama koje to nisu

1
01:07:19,480 --> 01:07:24,400
<boja fonta="

1
01:07:22,119 --> 01:07:26,099
otkrivaju vjerska stajališta ljudi ili

1
01:07:24,400 --> 01:07:29,860
političkih stavova ili seksualne orijentacije

1
01:07:26,099 --> 01:07:32,909
samo na temelju profilnih slika

1
01:07:29,860 --> 01:07:40,950
moglo biti doslovno pitanje života i

1
01:07:32,909 --> 01:07:40,949
smrt, mislim da nema povratka

1
01:07:42,150 --> 01:07:49,019
znaš što je Turingov test

1
01:07:46,599 --> 01:07:51,190
kada čovjek komunicira s računalom

1
01:07:49,019 --> 01:07:54,099
a ako čovjek ne zna da jesu

1
01:07:51,190 --> 01:07:58,389
interakciji s računalom test je

1
01:07:54,099 --> 01:07:59,799
prošao i tijekom sljedećih nekoliko dana ste

1
01:07:58,389 --> 01:08:01,869
će biti ljudska komponenta u

1
01:07:59,800 --> 01:08:05,289
Turingov test sveti

1
01:08:01,869 --> 01:08:07,049
tako je Kayla<font color="

1
01:08:05,289 --> 01:08:10,809
taj test je položen

1
01:08:07,050 --> 01:08:12,960
ti si mrtav centar najvećih

1
01:08:10,809 --> 01:08:15,250
znanstveni događaj u povijesti čovjeka

1
01:08:12,960 --> 01:08:18,850
ako ste stvorili svjesni stroj

1
01:08:15,250 --> 01:08:21,539
to nije povijest čovjeka

1
01:08:18,850 --> 01:08:21,539
povijest bogova

1
01:08:23,260 --> 01:08:29,509
[Glazba]

1
01:08:27,288 --> 01:08:31,929
to je gotovo kao da je tehnologija vrt

1
01:08:29,509 --> 01:08:31,929
sama od sebe

1
01:08:33,779 --> 01:08:40,089
poput vremena na koje ne možemo utjecati

1
01:08:36,479 --> 01:08:45,639
ne možemo usporiti ne možemo zaustaviti

1
01:08:40,088 --> 01:08:47,920
osjećamo se nemoćnima ako mislimo da je Bog

1
01:08:45,640 --> 01:08:49,500
neograničena količina inteligencije

1
01:08:47,920 --> 01:08:52,210
najbliže tome možemo doći putem

1
01:08:49,500 --> 01:08:54,338
u razvoju<font color="

1
01:08:52,210 --> 01:08:58,619
s umjetnom inteligencijom kakva jesmo

1
01:08:54,338 --> 01:09:00,489
stvarajući danas naša računala telefone

1
01:08:58,619 --> 01:09:04,180
aplikacije nam daju nadljudske

1
01:09:00,489 --> 01:09:06,929
sposobnost kako kaže stara maksima if

1
01:09:04,180 --> 01:09:06,930
ne možeš ih pobijediti pridruži im se

1
01:09:07,288 --> 01:09:12,809
radi se o partnerstvu čovjeka i stroja I

1
01:09:10,130 --> 01:09:14,849
znači već vidimo kako poznaješ naše

1
01:09:12,809 --> 01:09:16,380
telefoni, na primjer, djeluju kao memorija

1
01:09:14,849 --> 01:09:17,969
proteza pravo ne moram

1
01:09:16,380 --> 01:09:19,219
više zapamtiti svoj telefonski broj

1
01:09:17,969 --> 01:09:22,288
jer je na mom telefonu

1
01:09:19,219 --> 01:09:24,088
radi se o strojevima koji povećavaju<font color="

1
01:09:22,288 --> 01:09:26,939
sposobnosti za razliku od potpunog sviđanja

1
01:09:24,088 --> 01:09:28,318
istiskujući ih ako pogledate sve

1
01:09:26,939 --> 01:09:30,118
objekte iz kojih je napravljen skok

1
01:09:28,319 --> 01:09:34,739
analogno digitalno tijekom posljednjih 20 godina

1
01:09:30,118 --> 01:09:37,139
puno je mi smo zadnji analogni objekt

1
01:09:34,738 --> 01:09:38,338
u digitalnom svemiru i problem

1
01:09:37,139 --> 01:09:41,940
uz to naravno da su podaci

1
01:09:38,338 --> 01:09:45,778
ulaz izlaz je vrlo ograničen to je ovo

1
01:09:41,939 --> 01:09:47,158
to su naše oči prilično dobre

1
01:09:45,779 --> 01:09:50,969
možemo uzeti puno vizualnog

1
01:09:47,158 --> 01:09:54,238
informacija što je naš izlaz informacija

1
01:09:50,969 --> 01:09:56,130
je vrlo vrlo vrlo nizak razlog zašto je to

1
01:09:54,238 --> 01:09:58,678
<boja fonta="

1
01:09:56,130 --> 01:10:01,349
gdje AI igra istaknutiju ulogu

1
01:09:58,679 --> 01:10:03,868
ulogu u društvima za koje želimo dobre načine

1
01:10:01,349 --> 01:10:07,250
komunicirati s ovom tehnologijom tako da

1
01:10:03,868 --> 01:10:07,250
na kraju nas povećava

1
01:10:09,130 --> 01:10:17,079
Mislim da je to nevjerojatno važno za AI

1
01:10:10,840 --> 01:10:19,930
ne drugi to mora biti nas i ja mogao

1
01:10:17,079 --> 01:10:21,939
biti u krivu u vezi s onim što govorim

1
01:10:19,930 --> 01:10:24,890
svakako otvoren za ideje ili bilo tko može

1
01:10:21,939 --> 01:10:26,629
predloži put koji je bolji

1
01:10:24,890 --> 01:10:31,030
ali mislim da ćemo stvarno morati

1
01:10:26,630 --> 01:10:31,029
ili se spojiti s ostavljenim IOP-om

1
01:10:31,109 --> 01:10:39,049
[Glazba]

1
01:10:36,618 --> 01:10:40,880
teško je razmišljati o isključivanju iz struje

1
01:10:39,050 --> 01:10:43,779
sustav koji je<font color="

1
01:10:40,880 --> 01:10:47,480
na planetu koji je sada raspoređen

1
01:10:43,779 --> 01:10:50,229
preko Sunčevog sustava ne možete samo

1
01:10:47,479 --> 01:10:50,229
znaš ugasi to

1
01:10:50,288 --> 01:10:54,279
otvorili smo Pandorinu kutiju

1
01:10:52,118 --> 01:10:57,368
Oslobođene sile koje ne možemo kontrolirati

1
01:10:54,279 --> 01:10:59,109
ne možemo prestati usred smo

1
01:10:57,368 --> 01:11:00,279
u biti stvara novi životni oblik na

1
01:10:59,109 --> 01:11:04,188
zemlja

1
01:11:00,279 --> 01:11:04,188
[Glazba]

1
01:11:06,130 --> 01:11:10,969
ne znamo što će se dalje dogoditi ne znamo

1
01:11:08,929 --> 01:11:13,158
znati što oblikuje intelekt a

1
01:11:10,969 --> 01:11:16,038
stroj će biti kada taj intelekt bude

1
01:11:13,158 --> 01:11:17,599
daleko iznad ljudskih mogućnosti to je samo

1
01:11:16,038 --> 01:11:22,050
nije nešto<font color="

1
01:11:17,600 --> 01:11:24,800
[Glazba]

1
01:11:22,050 --> 01:11:27,570
[pljesak]

1
01:11:24,800 --> 01:11:29,369
najmanje strašna budućnost koje mogu zamisliti je

1
01:11:27,569 --> 01:11:34,380
onaj gdje smo se barem demokratizirali

1
01:11:29,369 --> 01:11:36,569
AI jer ako jedna tvrtka ili mala grupa

1
01:11:34,380 --> 01:11:38,220
da se menadžeri ljudi razvijaju poput Boga

1
01:11:36,569 --> 01:11:39,609
digitalna super inteligencija mogli bi

1
01:11:38,220 --> 01:11:40,809
preuzeti svijet

1
01:11:39,609 --> 01:11:42,549
[Glazba]

1
01:11:40,809 --> 01:11:46,239
barem kad je zli diktator

1
01:11:42,550 --> 01:11:48,340
taj čovjek će umrijeti da nije umjetne inteligencije

1
01:11:46,238 --> 01:11:51,399
ne bi bilo smrti koju bi izgledali

1
01:11:48,340 --> 01:11:54,489
zauvijek i tada biste imali besmrtnika

1
01:11:51,399 --> 01:11:57,579
diktator od kojeg ne možemo pobjeći

1
01:11:54,489 --> 01:11:57,579
[Glazba]

1
01:12:10,930 --> 01:12:14,048
[Glazba]

1
01:12:19,479 --> 01:12:22,669
[Glazba]

1
01:12:28,310 --> 01:12:33,919
[Glazba]

1
01:12:36,270 --> 01:12:48,399
[Glazba]

1
01:13:12,380 --> 01:13:15,630
[Glazba]

1
01:13:17,529 --> 01:13:20,099
tebe

1
01:13:24,590 --> 01:13:27,699
[Glazba]

1
01:13:30,310 --> 01:13:33,659
[Glazba]

1
01:13:37,140 --> 01:13:53,560
[Glazba]

1
01:14:01,899 --> 01:14:05,339
[Glazba]

1
01:14:12,720 --> 01:14:19,159
[Glazba]

1
01:14:22,909 --> 01:14:33,170
[Glazba]

1
01:14:31,949 --> 01:14:52,929
[pljesak]

1
01:14:33,170 --> 01:14:52,929
[Glazba]

1
01:15:00,229 --> 01:15:08,469
[Glazba]

1
01:15:14,829 --> 01:15:31,640
[Glazba]

1
01:15:39,329 --> 01:15:44,238
[Glazba]

1
01:15:57,850 --> 01:16:29,590
[pljesak]

1
01:15:58,930 --> 01:16:29,590
[Glazba]

1
01:16:34,359 --> 01:16:42,478
[Glazba]

1
01:16:47,000 --> 01:16:52,939
[Glazba]

1
01:16:59,350 --> 01:17:33,329
[Glazba]

1
01:17:32,430 --> 01:17:38,050
[pljesak]

1
01:17:33,329 --> 01:17:38,050
[Glazba]

1
01:17:39,579 --> 01:17:45,409
[pljesak]

1
01:17:42,189 --> 01:17:45,409
[Glazba]



