Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated:
1
00:00:02,000 --> 00:00:07,000
Descargado de
YTS.MX
2
00:00:08,000 --> 00:00:13,000
Sitio oficial de películas de YIFY:
YTS.MX
3
00:00:25,020 --> 00:00:28,000
- La inteligencia es
la capacidad de comprender.
4
00:00:28,000 --> 00:00:30,220
Transmitimos lo que sabemos a las máquinas.
5
00:00:30,220 --> 00:00:31,760
- El aumento de
inteligencia artificial
6
00:00:31,760 --> 00:00:34,210
está sucediendo rápido, pero algunos
temer a la nueva tecnología
7
00:00:34,210 --> 00:00:36,960
puede tener más problemas de los previstos.
8
00:00:36,960 --> 00:00:38,510
- No lo controlaremos.
9
00:01:37,720 --> 00:01:40,290
- Artificialmente
los algoritmos inteligentes están aquí,
10
00:01:40,290 --> 00:01:41,930
Pero esto es sólo el comienzo.
11
00:01:51,380 --> 00:01:54,850
- En la era de la IA,
Los datos son el nuevo aceite.
12
00:01:57,180 --> 00:01:59,230
- Hoy, Amazon,
Google y Facebook
13
00:01:59,230 --> 00:02:01,440
son más ricos y más
poderoso que cualquier empresa
14
00:02:01,440 --> 00:02:03,840
que alguna vez ha existido
a lo largo de la historia humana.
15
00:02:05,000 --> 00:02:08,690
- Un puñado de personas que trabajan en
un puñado de empresas de tecnología
16
00:02:08,690 --> 00:02:11,360
conducir qué mil millones
la gente piensa hoy.
17
00:02:12,710 --> 00:02:16,840
- Esta tecnología está cambiando:
¿Qué significa ser humano?
18
00:03:11,870 --> 00:03:16,340
- La inteligencia artificial es simplemente
inteligencia no biológica.
19
00:03:17,310 --> 00:03:20,910
Y la inteligencia misma es simplemente
la capacidad de lograr metas.
20
00:03:23,440 --> 00:03:26,030
Estoy convencido de que la IA
será finalmente o
21
00:03:26,030 --> 00:03:29,780
lo mejor que le ha pasado a la humanidad,
o lo peor que haya pasado.
22
00:03:31,240 --> 00:03:34,930
Podemos usarlo para resolver todos
de hoy y de mañana
23
00:03:34,930 --> 00:03:40,620
mayores problemas; curar enfermedades,
lidiar con el cambio climático,
24
00:03:40,780 --> 00:03:42,840
sacar a todos de la pobreza.
25
00:03:44,380 --> 00:03:47,460
Pero, podríamos usar exactamente
la misma tecnología
26
00:03:47,460 --> 00:03:51,780
para crear un brutal global
dictadura sin precedentes
27
00:03:51,780 --> 00:03:54,600
vigilancia y desigualdad y sufrimiento.
28
00:03:56,230 --> 00:03:59,260
Por eso esta es la mas importante
conversación de nuestro tiempo.
29
00:04:04,380 --> 00:04:07,590
- La inteligencia artificial está en todas partes
30
00:04:08,450 --> 00:04:11,500
porque ahora tenemos máquinas pensantes.
31
00:04:12,420 --> 00:04:15,840
Si va a las redes sociales o en línea,
32
00:04:15,840 --> 00:04:20,290
hay un motor de inteligencia artificial
que decide qué recomendar.
33
00:04:21,290 --> 00:04:25,400
Si vas a Facebook y solo estás
desplazarse por las publicaciones de sus amigos, -
34
00:04:25,400 --> 00:04:29,100
hay un motor de IA que está seleccionando
cual mostrarte primero
35
00:04:29,100 --> 00:04:30,840
- y cuál enterrar.
36
00:04:30,840 --> 00:04:34,190
Si intenta obtener un seguro,
hay un motor de IA
37
00:04:34,190 --> 00:04:36,270
tratando de averiguar qué tan arriesgado eres.
38
00:04:37,170 --> 00:04:40,710
Y si solicita un trabajo,
es bastante posible
39
00:04:40,710 --> 00:04:43,430
que un motor de inteligencia artificial mira el currículum.
40
00:04:51,350 --> 00:04:53,500
- Estamos hechos de datos.
41
00:04:54,240 --> 00:04:59,520
Cada uno de nosotros está hecho de datos
-en términos de cómo nos comportamos,
42
00:04:59,770 --> 00:05:03,000
como hablamos, como amamos,
lo que hacemos todos los días.
43
00:05:05,410 --> 00:05:09,120
Entonces, los científicos de la computación
desarrollando aprendizaje profundo
44
00:05:09,120 --> 00:05:14,120
algoritmos que pueden aprender
identificar, clasificar,
45
00:05:14,570 --> 00:05:18,680
y predecir patrones dentro
cantidades masivas de datos.
46
00:05:31,390 --> 00:05:35,190
Estamos ante una forma de
vigilancia de precisión,
47
00:05:35,190 --> 00:05:38,750
podría llamarlo vigilancia algorítmica,
48
00:05:38,750 --> 00:05:41,810
y significa que tu
no puede pasar desapercibido.
49
00:05:43,120 --> 00:05:46,110
Siempre estás debajo
el reloj de los algoritmos.
50
00:05:51,070 --> 00:05:54,380
- Casi toda la IA
desarrollo en el planeta hoy
51
00:05:54,380 --> 00:05:57,050
se hace con un puñado de
grandes empresas tecnológicas
52
00:05:57,050 --> 00:05:58,770
o por algunos grandes gobiernos.
53
00:06:01,930 --> 00:06:06,170
Si miramos lo que es la IA
principalmente desarrollado para,
54
00:06:06,170 --> 00:06:11,170
Yo diria que esta matando
espionaje y lavado de cerebro.
55
00:06:11,570 --> 00:06:13,730
Entonces, quiero decir, tenemos IA militar,
56
00:06:13,730 --> 00:06:16,850
tenemos toda una vigilancia
aparato en construcción
57
00:06:16,850 --> 00:06:19,060
el uso de IA por parte de los principales gobiernos,
58
00:06:19,060 --> 00:06:21,730
y tenemos una publicidad
industria que esta orientada
59
00:06:21,730 --> 00:06:25,870
hacia el reconocimiento de qué anuncios
para intentar venderle a alguien.
60
00:06:29,080 --> 00:06:32,090
- Los humanos hemos llegado a
una bifurcación en el camino ahora.
61
00:06:33,530 --> 00:06:36,670
La IA que tenemos hoy es muy limitada.
62
00:06:37,820 --> 00:06:40,550
El santo grial de la investigación de la IA
desde el principio
63
00:06:40,550 --> 00:06:43,300
es hacer una IA que pueda hacer
todo mejor que nosotros,
64
00:06:44,660 --> 00:06:46,280
y básicamente hemos construido un Dios.
65
00:06:47,640 --> 00:06:49,930
Va a revolucionar
La vida tal como la conocemos.
66
00:06:53,040 --> 00:06:55,760
Es increiblemente importante
dar un paso atrás
67
00:06:55,760 --> 00:06:57,660
y piense detenidamente en esto.
68
00:06:59,380 --> 00:07:01,510
¿Qué tipo de sociedad queremos?
69
00:07:04,760 --> 00:07:07,430
- Entonces, estamos en esto
transformación histórica.
70
00:07:08,890 --> 00:07:11,260
Como si estuviéramos criando a esta nueva criatura.
71
00:07:11,260 --> 00:07:14,230
Tenemos una especie de nueva descendencia.
72
00:07:16,120 --> 00:07:19,630
Pero al igual que la descendencia real,
73
00:07:19,630 --> 00:07:22,990
no puedes controlar
todo lo que va a hacer.
74
00:07:57,000 --> 00:08:00,300
Estamos viviendo en
este momento privilegiado donde,
75
00:08:00,300 --> 00:08:05,270
por primera vez, nosotros
probablemente verá que la IA
76
00:08:05,270 --> 00:08:08,860
realmente va a competir
humanos en muchos, muchos,
77
00:08:08,860 --> 00:08:10,460
si no todos, campos importantes.
78
00:08:14,300 --> 00:08:16,450
- Todo va a cambiar.
79
00:08:16,450 --> 00:08:19,520
Está surgiendo una nueva forma de vida.
80
00:08:45,000 --> 00:08:50,900
Cuando era niño, pensaba
¿Cómo puedo maximizar mi impacto?
81
00:08:52,050 --> 00:08:56,270
Y luego quedó claro que
Tengo que construir algo
82
00:08:56,270 --> 00:09:00,050
que aprende a ser más inteligente que yo,
83
00:09:00,050 --> 00:09:01,680
para que pueda retirarme,
84
00:09:01,680 --> 00:09:04,480
y lo mas inteligente
puede mejorar aún más
85
00:09:04,480 --> 00:09:06,950
y resolver todos los problemas
que no puedo resolver.
86
00:09:11,180 --> 00:09:14,520
Multiplicando ese diminuto
un poco de creatividad
87
00:09:14,520 --> 00:09:16,370
que tengo hasta el infinito,
88
00:09:18,270 --> 00:09:20,780
y eso es lo que ha sido
conduciéndome desde entonces.
89
00:09:39,220 --> 00:09:40,680
Como estoy tratando de construir
90
00:09:40,680 --> 00:09:43,320
una inteligencia artificial de propósito general?
91
00:09:45,540 --> 00:09:49,690
Si quieres ser inteligente
tienes que reconocer el habla,
92
00:09:49,690 --> 00:09:54,550
video y escritura a mano, y
caras, y todo tipo de cosas,
93
00:09:54,550 --> 00:09:57,550
y ahí hemos avanzado mucho.
94
00:09:59,290 --> 00:10:02,010
Ver, LSTM, redes neuronales,
95
00:10:02,010 --> 00:10:05,890
que desarrollamos en nuestros laboratorios
en Munich y en Suiza,
96
00:10:05,890 --> 00:10:10,460
y ahora se usa para hablar
reconocimiento y traducción,
97
00:10:10,460 --> 00:10:12,640
y reconocimiento de video.
98
00:10:12,640 --> 00:10:16,660
Ahora están en el de todos
smartphone, casi mil millones
99
00:10:16,660 --> 00:10:20,660
iPhones y más
dos mil millones de teléfonos Android.
100
00:10:21,990 --> 00:10:26,990
Entonces, estamos generando todos
tipos de subproductos útiles
101
00:10:27,490 --> 00:10:29,040
camino a la meta general.
102
00:10:40,000 --> 00:10:44,990
El objetivo principal, algo artificial
Inteligencia general,
103
00:10:44,990 --> 00:10:51,400
un AGI que puede aprender a mejorar
el propio algoritmo de aprendizaje.
104
00:10:52,960 --> 00:10:56,940
Entonces, básicamente puede aprender
para mejorar la forma en que aprende
105
00:10:56,940 --> 00:11:00,940
y también puede recursivamente
mejorar la forma en que aprende,
106
00:11:00,940 --> 00:11:04,460
la forma en que aprende sin
cualquier limitación excepto por
107
00:11:04,460 --> 00:11:07,970
lo básico fundamental
limitaciones de computabilidad.
108
00:11:14,590 --> 00:11:17,880
Uno de mis favoritos
robots es este de aquí.
109
00:11:17,880 --> 00:11:21,380
Usamos este robot para nuestro
estudios de curiosidad artificial.
110
00:11:22,640 --> 00:11:27,620
Donde estamos tratando de enseñar
este robot para aprender a sí mismo.
111
00:11:32,870 --> 00:11:33,960
¿Qué está haciendo un bebé?
112
00:11:33,960 --> 00:11:37,820
Un bebé explora con curiosidad su mundo.
113
00:11:39,970 --> 00:11:42,210
Así es como aprende cómo funciona la gravedad.
114
00:11:42,210 --> 00:11:45,130
y cómo se derrumban ciertas cosas, etc.
115
00:11:46,700 --> 00:11:49,980
Y mientras aprende a preguntar
preguntas sobre el mundo,
116
00:11:49,980 --> 00:11:52,640
y a medida que aprende a
responde estas preguntas,
117
00:11:52,640 --> 00:11:55,500
se vuelve cada vez mas
solucionador de problemas generales.
118
00:11:56,540 --> 00:11:59,160
Y entonces, nuestro artificial
los sistemas también están aprendiendo
119
00:11:59,160 --> 00:12:03,320
pedir todo tipo de
preguntas, no solo servilmente
120
00:12:03,320 --> 00:12:07,010
intenta responder las preguntas
dado a ellos por los humanos.
121
00:12:10,880 --> 00:12:14,920
Tienes que darle libertad a la IA
para inventar sus propias tareas.
122
00:12:17,830 --> 00:12:20,610
Si no haces eso, no es
va a volverse muy inteligente.
123
00:12:22,160 --> 00:12:26,780
Por otro lado, es muy difícil
para predecir lo que van a hacer.
124
00:12:49,560 --> 00:12:52,910
- siento esa tecnología
es una fuerza de la naturaleza.
125
00:12:55,420 --> 00:13:00,020
Siento que hay mucha similitud entre
tecnología y evolución biológica.
126
00:13:08,850 --> 00:13:10,140
Jugar a ser Dios.
127
00:13:13,470 --> 00:13:16,500
Los científicos han sido acusados
de jugar a ser Dios por un tiempo,
128
00:13:17,960 --> 00:13:22,410
- pero hay un sentido real en
que estamos creando algo
129
00:13:23,380 --> 00:13:26,250
muy diferente a cualquier cosa
que hemos creado hasta ahora.
130
00:13:49,790 --> 00:13:53,250
Estaba interesado en el concepto de
IA desde una edad relativamente temprana.
131
00:13:55,080 --> 00:13:58,420
En algún momento, obtuve especialmente
interesado en el aprendizaje automático.
132
00:14:01,690 --> 00:14:03,520
¿Qué es la experiencia?
133
00:14:03,520 --> 00:14:04,710
¿Qué es aprender?
134
00:14:04,710 --> 00:14:05,720
¿Qué está pensando?
135
00:14:06,890 --> 00:14:08,150
¿Cómo trabaja el cerebro?
136
00:14:10,140 --> 00:14:11,940
Estas preguntas son filosóficas,
137
00:14:11,940 --> 00:14:15,190
pero parece que podemos
idear algoritmos que
138
00:14:15,190 --> 00:14:18,530
ambos hacen cosas útiles y ayudan
respondamos estas preguntas.
139
00:14:20,000 --> 00:14:22,250
Como si fuera casi una filosofía aplicada.
140
00:14:48,060 --> 00:14:51,410
Inteligencia General Artificial, AGI.
141
00:14:52,610 --> 00:14:57,210
Un sistema informático que
puede hacer cualquier trabajo o tarea
142
00:14:57,210 --> 00:15:00,380
que hace un humano, pero solo mejor.
143
00:15:13,180 --> 00:15:15,810
Sí, quiero decir, definitivamente
será capaz de crear
144
00:15:17,340 --> 00:15:20,150
completamente autónomo
seres con sus propias metas.
145
00:15:24,060 --> 00:15:25,630
Y será muy importante,
146
00:15:25,630 --> 00:15:30,440
especialmente porque estos seres
ser mucho más inteligente que los humanos,
147
00:15:30,440 --> 00:15:34,720
va a ser importante
tener estos seres,
148
00:15:36,220 --> 00:15:39,330
que las metas de estos seres
estar alineados con nuestras metas.
149
00:15:42,600 --> 00:15:45,340
Eso es lo que estamos intentando
que hacer en OpenAI.
150
00:15:45,340 --> 00:15:49,700
Estar a la vanguardia de la investigación
y dirigir la investigación,
151
00:15:49,700 --> 00:15:53,940
dirigir sus condiciones iniciales
así que para maximizar la oportunidad
152
00:15:53,940 --> 00:15:56,100
que el futuro será bueno para los humanos.
153
00:16:11,660 --> 00:16:14,370
Ahora, la IA es una gran cosa
porque la IA resolverá
154
00:16:14,370 --> 00:16:16,440
todos los problemas que tenemos hoy.
155
00:16:19,080 --> 00:16:22,580
Resolverá el empleo,
solucionará la enfermedad,
156
00:16:24,670 --> 00:16:26,560
solucionará la pobreza,
157
00:16:29,000 --> 00:16:31,360
pero también creará nuevos problemas.
158
00:16:34,580 --> 00:16:36,320
Creo que...
159
00:16:40,490 --> 00:16:43,120
El problema de las noticias falsas
va a ser mil,
160
00:16:43,120 --> 00:16:44,360
un millón de veces peor.
161
00:16:46,440 --> 00:16:48,820
Los ciberataques
se vuelven mucho más extremos.
162
00:16:50,640 --> 00:16:53,470
Tendrás totalmente
armas de IA automatizadas.
163
00:16:56,100 --> 00:16:59,980
Creo que la IA tiene el potencial de crear
dictaduras infinitamente estables.
164
00:17:05,820 --> 00:17:08,850
Vas a ver dramáticamente
sistemas más inteligentes
165
00:17:08,850 --> 00:17:12,620
en 10 o 15 años a partir de ahora,
y creo que es muy probable
166
00:17:12,620 --> 00:17:17,120
que esos sistemas tendrán
Impacto completamente astronómico en la sociedad.
167
00:17:19,480 --> 00:17:21,160
¿Se beneficiarán realmente los humanos?
168
00:17:22,860 --> 00:17:24,860
¿Y quién se beneficiará y quién no?
169
00:17:44,560 --> 00:17:47,660
- En 2012, IBM estimó que
170
00:17:47,660 --> 00:17:52,090
una persona promedio es
generando 500 megabytes
171
00:17:52,090 --> 00:17:55,110
de huellas digitales todos los días.
172
00:17:55,110 --> 00:17:57,390
Imagina que querias
para respaldar el valor de un día
173
00:17:57,390 --> 00:18:01,260
de datos que la humanidad es
dejando atrás, sobre papel.
174
00:18:01,260 --> 00:18:04,370
¿Qué altura tendrá la pila?
de papel que contiene
175
00:18:04,370 --> 00:18:07,820
solo un día de datos
que esta produciendo la humanidad?
176
00:18:09,610 --> 00:18:12,670
Es como de la tierra
al sol, cuatro veces más.
177
00:18:14,550 --> 00:18:20,340
En 2025, generaremos
62 gigabytes de datos
178
00:18:20,640 --> 00:18:22,380
por persona, por día.
179
00:18:36,970 --> 00:18:42,380
Estamos dejando un montón de huellas digitales
mientras pasamos por nuestras vidas.
180
00:18:44,790 --> 00:18:49,380
Proporcionan algoritmos informáticos
con una idea bastante clara de quiénes somos,
181
00:18:49,380 --> 00:18:52,280
lo que queremos, lo que estamos haciendo.
182
00:18:56,020 --> 00:18:59,320
En mi trabajo, miré diferentes
tipos de huellas digitales.
183
00:18:59,320 --> 00:19:02,650
Miré los me gusta de Facebook,
Miré el lenguaje,
184
00:19:02,650 --> 00:19:06,890
registros de tarjetas de crédito, navegación web
historias, registros de búsqueda.
185
00:19:07,740 --> 00:19:12,010
y cada vez que encontré que si
obtienes suficiente de estos datos,
186
00:19:12,010 --> 00:19:14,370
puede predecir con precisión el comportamiento futuro
187
00:19:14,370 --> 00:19:17,560
y revelar importantes rasgos íntimos.
188
00:19:19,140 --> 00:19:21,270
Esto se puede utilizar de grandes maneras,
189
00:19:21,270 --> 00:19:24,670
pero también se puede utilizar
manipular a la gente.
190
00:19:29,910 --> 00:19:33,880
Facebook ofrece información diaria
191
00:19:33,880 --> 00:19:36,460
a dos mil millones de personas o más.
192
00:19:38,750 --> 00:19:42,840
Si cambia ligeramente el
funcionamiento del motor de Facebook,
193
00:19:42,840 --> 00:19:46,500
puedes mover las opiniones y de ahí,
194
00:19:46,500 --> 00:19:49,870
los votos de millones de personas.
195
00:19:50,720 --> 00:19:52,680
- ¡Brexit!
- ¿Cuándo lo queremos?
196
00:19:52,720 --> 00:19:54,140
- ¡Ahora!
197
00:19:56,070 --> 00:19:58,690
- Un político
no sería capaz de entender
198
00:19:58,690 --> 00:20:02,830
cual mensaje cada uno de
a sus votantes les gustaría,
199
00:20:02,830 --> 00:20:06,010
pero una computadora puede ver
que mensaje politico
200
00:20:06,010 --> 00:20:08,920
sería particularmente convincente para ti.
201
00:20:11,320 --> 00:20:12,640
- Damas y caballeros,
202
00:20:12,640 --> 00:20:16,170
es mi privilegio hablar
para ti hoy sobre el poder
203
00:20:16,170 --> 00:20:20,430
de big data y psicografía
en el proceso electoral.
204
00:20:20,430 --> 00:20:22,360
- Datos de Cambridge Analytica
205
00:20:22,360 --> 00:20:25,070
cosechado en secreto el
informacion personal
206
00:20:25,070 --> 00:20:28,320
de 50 millones de usuarios desprevenidos de Facebook.
207
00:20:28,320 --> 00:20:31,690
¡ESTADOS UNIDOS!
208
00:20:31,690 --> 00:20:35,500
- La firma de datos contratada por Donald Trump
campaña electoral presidencial
209
00:20:35,870 --> 00:20:41,080
utilizó información obtenida en secreto
para apuntar directamente a los votantes estadounidenses potenciales.
210
00:20:41,080 --> 00:20:42,940
- Con eso, dicen que pueden predecir
211
00:20:42,940 --> 00:20:46,760
la personalidad de cada uno
adulto en los Estados Unidos.
212
00:20:47,470 --> 00:20:49,460
- esta noche estamos escuchando
de Cambridge Analytica
213
00:20:49,460 --> 00:20:51,650
denunciante, Christopher Wiley.
214
00:20:51,650 --> 00:20:54,990
- En lo que trabajamos fue
programas de recolección de datos
215
00:20:54,990 --> 00:20:59,200
donde extraeríamos datos y ejecutaríamos
datos a través de algoritmos que podrían perfilar
216
00:20:59,200 --> 00:21:01,930
sus rasgos de personalidad y
otros atributos psicológicos
217
00:21:01,930 --> 00:21:06,580
explotar vulnerabilidades mentales
que nuestros algoritmos demostraron que tenían.
218
00:21:15,500 --> 00:21:17,570
- Cambridge Analytica mencionado una vez
219
00:21:17,570 --> 00:21:20,460
o dijo que sus modelos
se basaron en mi trabajo,
220
00:21:22,510 --> 00:21:25,140
pero Cambridge Analytica es
solo uno de los cientos
221
00:21:25,140 --> 00:21:30,040
de empresas que utilizan
tales métodos para apuntar a los votantes.
222
00:21:32,130 --> 00:21:35,760
Sabes, me preguntarían
preguntas de periodistas como,
223
00:21:35,760 --> 00:21:37,220
"Entonces, ¿cómo te sientes
224
00:21:38,810 --> 00:21:41,990
"¿Elegir a Trump y apoyar el Brexit?"
225
00:21:41,990 --> 00:21:43,940
¿Cómo respondes a esa pregunta?
226
00:21:45,400 --> 00:21:51,740
Supongo que tengo que lidiar
con ser culpado de todo.
227
00:22:07,700 --> 00:22:12,480
- Cómo empezó la tecnología fue
como fuerza democratizadora,
228
00:22:12,480 --> 00:22:15,110
como una fuerza para el bien, como
una habilidad para los humanos
229
00:22:15,110 --> 00:22:17,900
para interactuar con cada uno
otros sin porteros.
230
00:22:20,210 --> 00:22:25,110
Nunca ha habido un experimento más grande
en comunicaciones para la raza humana.
231
00:22:26,330 --> 00:22:29,060
Que pasa cuando todos
llega a dar su opinión?
232
00:22:29,780 --> 00:22:31,850
Asumirías que
sería para mejor,
233
00:22:31,850 --> 00:22:34,540
que habría más democracia,
habría más discusión,
234
00:22:34,540 --> 00:22:37,660
habría más tolerancia,
pero lo que pasó es que
235
00:22:37,660 --> 00:22:39,720
estos sistemas han sido secuestrados.
236
00:22:41,300 --> 00:22:43,860
- Defendemos la conexión de todas las personas.
237
00:22:44,960 --> 00:22:46,620
Para una comunidad global.
238
00:22:47,780 --> 00:22:50,500
- Una compania,
Facebook, es responsable
239
00:22:50,500 --> 00:22:53,540
para las comunicaciones de
gran parte de la raza humana.
240
00:22:55,650 --> 00:22:57,360
Lo mismo pasa con Google.
241
00:22:57,360 --> 00:23:00,540
Todo lo que quieres saber
el mundo viene de ellos.
242
00:23:01,540 --> 00:23:05,120
Esta es la economía de la información global
243
00:23:05,120 --> 00:23:07,830
que está controlado por un
pequeño grupo de personas.
244
00:23:14,400 --> 00:23:17,920
- Las empresas más ricas del mundo
son todas empresas de tecnología.
245
00:23:18,770 --> 00:23:24,500
Google, Apple, Microsoft,
Amazon, Facebook.
246
00:23:25,880 --> 00:23:29,040
Es asombroso cómo
247
00:23:29,040 --> 00:23:31,770
en probablemente solo 10 años,
248
00:23:31,770 --> 00:23:34,810
que toda la estructura de poder corporativa
249
00:23:34,810 --> 00:23:39,460
están básicamente en el negocio
del comercio de electrones.
250
00:23:41,240 --> 00:23:47,060
Estos pequeños bits y bytes
son realmente la nueva moneda.
251
00:23:53,560 --> 00:23:55,800
- La forma en que se monetizan los datos
252
00:23:55,800 --> 00:23:58,820
está sucediendo a nuestro alrededor,
incluso si es invisible para nosotros.
253
00:24:00,960 --> 00:24:04,280
Google tiene todas las cantidades
de información disponible.
254
00:24:04,280 --> 00:24:07,110
Rastrean a las personas por su ubicación GPS.
255
00:24:07,110 --> 00:24:10,080
Ellos saben exactamente lo que tu
el historial de búsqueda ha sido.
256
00:24:10,080 --> 00:24:12,850
Conocen sus preferencias políticas.
257
00:24:12,850 --> 00:24:14,840
Tu historial de búsqueda solo puede decirte
258
00:24:14,840 --> 00:24:17,570
todo sobre un individuo
de sus problemas de salud
259
00:24:17,570 --> 00:24:19,480
a sus preferencias sexuales.
260
00:24:19,480 --> 00:24:21,880
Entonces, el alcance de Google es ilimitado.
261
00:24:28,750 --> 00:24:31,620
- Así que hemos visto Google y Facebook.
262
00:24:31,620 --> 00:24:34,150
sube a estos grandes
maquinas de vigilancia
263
00:24:35,040 --> 00:24:38,200
y ambos son agentes de publicidad.
264
00:24:38,200 --> 00:24:42,040
Suena muy mundano
pero son corredores de publicidad de alta tecnología.
265
00:24:42,910 --> 00:24:46,080
Y la razón por la que son tan
rentable es que están usando
266
00:24:46,080 --> 00:24:49,750
inteligencia artificial para
procesar todos estos datos sobre ti,
267
00:24:51,560 --> 00:24:54,660
y luego relacionarte con el anunciante
268
00:24:54,660 --> 00:24:59,660
que quiere llegar a la gente
como tú, - para cualquier mensaje.
269
00:25:03,000 --> 00:25:07,880
- Uno de los problemas de la tecnología es
que ha sido desarrollado para ser adictivo.
270
00:25:07,880 --> 00:25:09,910
La forma en que estas empresas
diseña estas cosas
271
00:25:09,910 --> 00:25:12,010
es para atraerlos y comprometerlos.
272
00:25:13,180 --> 00:25:16,820
Quieren volverse esencialmente
una máquina tragamonedas de atención.
273
00:25:18,600 --> 00:25:21,770
Entonces siempre estás prestando atención
siempre estás conectado a la matriz,
274
00:25:21,770 --> 00:25:23,520
siempre estás comprobando.
275
00:25:26,580 --> 00:25:30,450
- Cuando alguien controla lo que lees,
también controlan lo que piensas.
276
00:25:32,180 --> 00:25:34,610
Obtienes más de lo que tienes
visto antes y gustado antes,
277
00:25:34,610 --> 00:25:37,890
porque esto da más tráfico
y eso da más anuncios,
278
00:25:39,410 --> 00:25:43,160
pero también te encierra
en su cámara de eco.
279
00:25:43,160 --> 00:25:46,350
Y esto es lo que lleva
a esta polarización que vemos hoy.
280
00:25:46,460 --> 00:25:49,300
¡Jair Bolsonaro!
281
00:25:49,970 --> 00:25:52,590
- Jair Bolsonaro,
La derecha de Brasil
282
00:25:52,590 --> 00:25:56,000
candidato populista a veces
comparado con Donald Trump,
283
00:25:56,000 --> 00:25:58,640
ganar la presidencia el domingo
noche en ese pais
284
00:25:58,640 --> 00:26:01,840
elección más polarizante en décadas.
285
00:26:01,840 --> 00:26:02,840
- ¡Bolsonaro!
286
00:26:04,160 --> 00:26:09,550
- Qué estamos viendo alrededor del mundo
es agitación y polarización y conflicto
287
00:26:10,770 --> 00:26:15,000
que es parcialmente impulsado por algoritmos
288
00:26:15,000 --> 00:26:19,070
eso ha descubierto que
extremos políticos,
289
00:26:19,070 --> 00:26:22,180
tribalismo, y una especie de
gritando por tu equipo,
290
00:26:22,180 --> 00:26:25,290
y sentirse bien al respecto, es interesante.
291
00:26:30,420 --> 00:26:33,150
- Las redes sociales pueden
estar agregando a la atención
292
00:26:33,150 --> 00:26:35,490
a los delitos de odio en todo el mundo.
293
00:26:35,490 --> 00:26:38,120
- Se trata de cómo
la gente puede radicalizarse
294
00:26:38,120 --> 00:26:41,740
viviendo en la fiebre
pantanos de Internet.
295
00:26:41,740 --> 00:26:45,960
- ¿Es este un momento clave para los gigantes tecnológicos?
¿Están ahora preparados para asumir la responsabilidad?
296
00:26:45,960 --> 00:26:48,840
como editores de lo que
que comparten con el mundo?
297
00:26:49,790 --> 00:26:52,750
- Si implementa un
potente tecnología potente
298
00:26:52,750 --> 00:26:56,670
a escala, y si estás hablando
sobre Google y Facebook,
299
00:26:56,670 --> 00:26:59,530
estas desplegando cosas
a escala de miles de millones.
300
00:26:59,530 --> 00:27:02,770
Si tu inteligencia artificial
está empujando la polarización,
301
00:27:02,770 --> 00:27:05,090
potencialmente tiene un trastorno global.
302
00:27:05,720 --> 00:27:09,240
¡Las vidas blancas importan!
303
00:27:09,320 --> 00:27:13,620
¡Las vidas negras importan!
304
00:28:00,620 --> 00:28:04,040
- Inteligencia General Artificial, AGI.
305
00:28:06,350 --> 00:28:08,320
Imagina a tu amigo más inteligente
306
00:28:09,600 --> 00:28:11,950
con 1000 amigos, igual de inteligente,
307
00:28:14,680 --> 00:28:17,580
y luego ejecutarlos a 1,000
veces más rápido que el tiempo real.
308
00:28:17,580 --> 00:28:19,940
Entonces significa que en todos los días de nuestro tiempo,
309
00:28:19,940 --> 00:28:22,510
harán tres años de pensar.
310
00:28:22,510 --> 00:28:25,520
¿Te imaginas cuanto podrías hacer?
311
00:28:26,580 --> 00:28:31,480
si por cada día pudieras
hacer tres años de trabajo?
312
00:28:52,440 --> 00:28:55,720
No sería una comparación injusta decir
313
00:28:55,720 --> 00:28:59,780
que lo que tenemos ahora mismo
es incluso más emocionante que
314
00:28:59,780 --> 00:29:02,510
los físicos cuánticos de
principios del siglo XX.
315
00:29:02,510 --> 00:29:04,240
Descubrieron la energía nuclear.
316
00:29:05,740 --> 00:29:08,380
Me siento muy afortunado de
participar en esto.
317
00:29:15,310 --> 00:29:18,820
Muchos expertos en aprendizaje automático
que tienen mucho conocimiento y experiencia,
318
00:29:18,820 --> 00:29:20,820
tienen mucho escepticismo sobre AGI.
319
00:29:22,350 --> 00:29:25,900
Sobre cuando sucedería
y sobre si podría suceder en absoluto.
320
00:29:31,460 --> 00:29:35,740
Pero ahora mismo, esto es algo que
no mucha gente se ha dado cuenta todavía.
321
00:29:36,500 --> 00:29:41,240
Que la velocidad de las computadoras,
para redes neuronales, para IA,
322
00:29:41,240 --> 00:29:45,240
se van a convertir en tal vez
100,000 veces más rápido
323
00:29:45,240 --> 00:29:46,980
en un pequeño número de años.
324
00:29:49,330 --> 00:29:52,100
Todo el hardware
industria durante mucho tiempo
325
00:29:52,100 --> 00:29:54,660
realmente no sabía qué hacer a continuación,
326
00:29:55,660 --> 00:30:00,900
pero con redes neuronales artificiales,
ahora que realmente funcionan,
327
00:30:00,900 --> 00:30:03,420
tienes una razón para construir computadoras enormes.
328
00:30:04,530 --> 00:30:06,930
Puedes construir un cerebro en
silicio, es posible.
329
00:30:14,450 --> 00:30:18,710
Los primeros AGI
será básicamente muy,
330
00:30:18,710 --> 00:30:22,850
centros de datos muy grandes
lleno de especialistas
331
00:30:22,850 --> 00:30:25,660
procesadores de redes neuronales
trabajando en paralelo.
332
00:30:28,070 --> 00:30:30,920
Paquete compacto, caliente y hambriento de energía,
333
00:30:32,140 --> 00:30:35,540
consumiendo como 10 millones
valor de la energía de los hogares.
334
00:30:54,140 --> 00:30:55,640
Un sándwich de rosbif.
335
00:30:55,640 --> 00:30:58,290
Sí, algo ligeramente diferente.
336
00:30:58,290 --> 00:30:59,200
Solo esta vez.
337
00:31:04,060 --> 00:31:06,260
Incluso los primeros AGI
338
00:31:06,260 --> 00:31:09,060
será dramáticamente
más capaz que los humanos.
339
00:31:10,970 --> 00:31:14,730
Los humanos ya no serán
económicamente útil para casi cualquier tarea.
340
00:31:16,200 --> 00:31:17,880
¿Por qué querrías contratar a un humano?
341
00:31:17,880 --> 00:31:21,980
si pudieras conseguir una computadora que
hacerlo mucho mejor y mucho más barato?
342
00:31:28,900 --> 00:31:31,020
AGI va a ser, sin lugar a dudas,
343
00:31:31,880 --> 00:31:34,660
el más importante
tecnología en la historia
344
00:31:34,660 --> 00:31:36,600
del planeta por un gran margen.
345
00:31:39,410 --> 00:31:42,550
Va a ser mas grande
que la electricidad, nuclear,
346
00:31:42,550 --> 00:31:44,140
e Internet combinados.
347
00:31:45,740 --> 00:31:47,620
De hecho, podrías decir
que todo el propósito
348
00:31:47,620 --> 00:31:49,660
de toda la ciencia humana, el
propósito de la informática,
349
00:31:49,660 --> 00:31:52,550
el juego final, este es el
End Game, para construir esto.
350
00:31:52,550 --> 00:31:54,130
Y se va a construir.
351
00:31:54,130 --> 00:31:56,000
Va a ser una nueva forma de vida.
352
00:31:56,000 --> 00:31:57,090
Va a ser...
353
00:31:59,190 --> 00:32:00,740
Nos va a volver obsoletos.
354
00:32:22,070 --> 00:32:24,520
- fabricantes europeos
conocer a los americanos
355
00:32:24,520 --> 00:32:27,460
han invertido mucho en
el hardware necesario.
356
00:32:27,460 --> 00:32:29,780
- Entra en un
valiente nuevo mundo de poder,
357
00:32:29,780 --> 00:32:31,630
rendimiento y productividad.
358
00:32:32,360 --> 00:32:35,480
- Todas las imágenes que eres
a punto de ver en la pantalla grande
359
00:32:35,480 --> 00:32:39,030
será generado por
qué hay en ese Macintosh.
360
00:32:39,760 --> 00:32:42,210
- Es mi honor y
privilegio de presentarte
361
00:32:42,210 --> 00:32:44,700
el equipo de desarrollo de Windows 95.
362
00:32:45,640 --> 00:32:49,040
- El trabajo físico humano ha
sido en su mayoría obsoleto para
363
00:32:49,040 --> 00:32:50,620
avanzando durante un siglo.
364
00:32:51,390 --> 00:32:55,300
Trabajo mental humano de rutina
se está volviendo obsoleto rápidamente
365
00:32:55,300 --> 00:32:58,980
y es por eso que estamos viendo muchos
desaparecen los trabajos de la clase media.
366
00:33:01,010 --> 00:33:02,340
- De vez en cuando,
367
00:33:02,340 --> 00:33:06,370
viene un producto revolucionario
a lo largo que cambia todo.
368
00:33:06,370 --> 00:33:09,190
Hoy, Apple está reinventando el teléfono.
369
00:33:20,730 --> 00:33:24,270
- Inteligencia de máquina
ya está a nuestro alrededor.
370
00:33:24,270 --> 00:33:27,620
La lista de cosas que los humanos
puede hacerlo mejor que las máquinas
371
00:33:27,620 --> 00:33:29,600
es en realidad
encogiéndose bastante rápido.
372
00:33:35,730 --> 00:33:37,400
- Los autos sin conductor son geniales.
373
00:33:37,400 --> 00:33:40,010
Probablemente reducirán los accidentes.
374
00:33:40,010 --> 00:33:43,670
Excepto, junto con
que, en Estados Unidos,
375
00:33:43,670 --> 00:33:46,410
vas a perder 10 millones de puestos de trabajo.
376
00:33:46,480 --> 00:33:49,980
Que vas a hacer con
10 millones de parados?
377
00:33:54,900 --> 00:33:58,660
- El riesgo social
conflictos y tensiones,
378
00:33:58,660 --> 00:34:02,080
si agrava las desigualdades,
es muy, muy alto.
379
00:34:11,560 --> 00:34:13,870
- AGI puede, por definición,
380
00:34:13,870 --> 00:34:16,700
hacer todos los trabajos mejor que nosotros.
381
00:34:16,700 --> 00:34:18,610
Gente que dice
"Oh, siempre habrá trabajos
382
00:34:18,610 --> 00:34:21,120
"que los humanos pueden hacerlo mejor
que las máquinas ", son simplemente
383
00:34:21,120 --> 00:34:24,180
apostando contra la ciencia y
diciendo que nunca habrá AGI.
384
00:34:30,860 --> 00:34:33,630
- lo que estamos viendo
ahora es como un tren corriendo
385
00:34:33,630 --> 00:34:37,880
por un túnel oscuro en
velocidad vertiginosa y parece
386
00:34:37,880 --> 00:34:39,660
estamos durmiendo al volante.
387
00:35:29,170 --> 00:35:34,710
- Una gran fracción de las huellas digitales
lo que estamos dejando atrás son las imágenes digitales.
388
00:35:35,690 --> 00:35:39,340
Y específicamente, lo que realmente
interesante para mi como psicólogo
389
00:35:39,340 --> 00:35:41,470
son imágenes digitales de nuestros rostros.
390
00:35:44,500 --> 00:35:47,260
Aqui puedes ver la diferencia
en el contorno facial
391
00:35:47,260 --> 00:35:50,130
de un gay promedio y
una cara seria promedio.
392
00:35:50,130 --> 00:35:52,660
Y puedes ver que los hombres heterosexuales
393
00:35:52,660 --> 00:35:55,380
tienen mandíbulas ligeramente más anchas.
394
00:35:55,680 --> 00:36:00,580
Las mujeres gay tienen mandíbulas un poco más grandes
en comparación con las mujeres heterosexuales.
395
00:36:02,510 --> 00:36:05,670
Los algoritmos informáticos pueden
revelar nuestras opiniones políticas
396
00:36:05,670 --> 00:36:08,280
u orientación sexual, o inteligencia,
397
00:36:08,280 --> 00:36:11,120
basándonos únicamente en la imagen de nuestras caras.
398
00:36:12,070 --> 00:36:16,760
Incluso un cerebro humano puede distinguir entre
hombres homosexuales y heterosexuales con cierta precisión.
399
00:36:16,920 --> 00:36:21,700
Ahora resulta que la computadora
puede hacerlo con mucha mayor precisión.
400
00:36:21,700 --> 00:36:25,200
Lo que ves aquí es una precisión de
401
00:36:25,200 --> 00:36:29,410
software de reconocimiento facial listo para usar.
402
00:36:29,410 --> 00:36:31,640
Esta es una noticia terrible
403
00:36:31,640 --> 00:36:34,320
para hombres y mujeres homosexuales
alrededor del mundo.
404
00:36:34,320 --> 00:36:35,680
Y no solo hombres y mujeres homosexuales,
405
00:36:35,680 --> 00:36:38,300
porque los mismos algoritmos
se puede utilizar para detectar otros
406
00:36:38,300 --> 00:36:42,350
rasgos íntimos, piensa ser
un miembro de la oposición,
407
00:36:42,350 --> 00:36:45,090
o ser liberal, o ser ateo.
408
00:36:46,850 --> 00:36:50,070
Ser ateo es
también punible con la muerte
409
00:36:50,070 --> 00:36:52,610
en Arabia Saudita, por ejemplo.
410
00:36:59,780 --> 00:37:04,440
Mi misión como académico es
advertir a la gente sobre los peligros de los algoritmos
411
00:37:04,440 --> 00:37:08,290
pudiendo revelar nuestros rasgos íntimos.
412
00:37:09,780 --> 00:37:14,060
El problema es que cuando
la gente recibe malas noticias,
413
00:37:14,060 --> 00:37:16,260
muy a menudo eligen despedirlos.
414
00:37:17,810 --> 00:37:22,250
Bueno, da un poco de miedo cuando empiezas a recibir
amenazas de muerte de un día para otro,
415
00:37:22,250 --> 00:37:24,830
y he recibido bastante
pocas amenazas de muerte, -
416
00:37:25,910 --> 00:37:30,870
-pero como científico, tengo que
básicamente mostrar lo que es posible.
417
00:37:33,590 --> 00:37:36,900
Entonces, lo que realmente me interesa
en ahora es para tratar de ver
418
00:37:36,900 --> 00:37:41,080
si podemos predecir otros
rasgos de los rostros de las personas.
419
00:37:46,270 --> 00:37:48,580
Ahora, si puedes detectar
depresión de una cara,
420
00:37:48,580 --> 00:37:53,580
o pensamientos suicidas, tal vez un sistema de CCTV
421
00:37:53,690 --> 00:37:56,970
en la estación de tren puede salvar algunas vidas.
422
00:37:59,130 --> 00:38:03,830
¿Y si pudiéramos predecir que alguien
¿Es más propenso a cometer un delito?
423
00:38:04,960 --> 00:38:07,150
Probablemente tuviste un consejero escolar,
424
00:38:07,150 --> 00:38:10,380
un psicólogo contratado
allí para identificar a los niños
425
00:38:10,380 --> 00:38:14,830
que potencialmente puede tener
algunos problemas de comportamiento.
426
00:38:17,330 --> 00:38:20,080
Así que ahora imagina si pudieras
predecir con alta precisión
427
00:38:20,080 --> 00:38:22,590
que es probable que alguien
cometer un crimen en el futuro
428
00:38:22,590 --> 00:38:24,780
del uso del lenguaje, del rostro,
429
00:38:24,780 --> 00:38:27,580
de las expresiones faciales,
de los me gusta en Facebook.
430
00:38:32,310 --> 00:38:35,210
No me estoy desarrollando nuevo
métodos, solo estoy describiendo
431
00:38:35,210 --> 00:38:38,890
algo o probando algo
en un entorno académico.
432
00:38:40,590 --> 00:38:42,790
Pero, obviamente, existe la posibilidad de que,
433
00:38:42,790 --> 00:38:47,790
mientras advierte a la gente contra
riesgos de las nuevas tecnologías,
434
00:38:47,960 --> 00:38:50,560
También puedo dar a algunas personas nuevas ideas.
435
00:39:11,140 --> 00:39:13,830
- aún no hemos visto
el futuro en términos de
436
00:39:13,830 --> 00:39:18,780
las formas en que el
nueva sociedad basada en datos
437
00:39:18,780 --> 00:39:21,380
realmente va a evolucionar.
438
00:39:23,540 --> 00:39:26,740
Las empresas tecnológicas quieren
para obtener todo lo posible
439
00:39:26,740 --> 00:39:30,170
de información que ellos
puede cobrar a todos
440
00:39:30,170 --> 00:39:31,690
para facilitar los negocios.
441
00:39:33,470 --> 00:39:37,090
La policia y el ejercito
quiero hacer lo mismo
442
00:39:37,090 --> 00:39:38,830
para facilitar la seguridad.
443
00:39:41,960 --> 00:39:46,440
Los intereses que los dos
tienen en común son inmensos,
444
00:39:46,440 --> 00:39:51,220
y así el alcance de la colaboración
entre lo que podrías
445
00:39:51,220 --> 00:39:56,820
llamar al complejo de tecnología militar
está creciendo de forma espectacular.
446
00:40:00,400 --> 00:40:03,010
- La CIA, durante mucho tiempo,
447
00:40:03,010 --> 00:40:06,120
ha mantenido un cierre
conexión con Silicon Valley.
448
00:40:07,110 --> 00:40:10,270
Su capital de riesgo
firma conocida como In-Q-Tel,
449
00:40:10,270 --> 00:40:13,870
realiza inversiones iniciales para
empresas de nueva creación en desarrollo
450
00:40:13,870 --> 00:40:17,490
tecnología de vanguardia que
la CIA espera desplegarse.
451
00:40:18,660 --> 00:40:22,100
Palantir, la firma de análisis de big data,
452
00:40:22,100 --> 00:40:25,100
una de sus primeras semillas
las inversiones fueron de In-Q-Tel.
453
00:40:28,950 --> 00:40:31,780
- In-Q-Tel ha encontrado oro en Palantir
454
00:40:31,780 --> 00:40:35,990
para ayudar a crear un proveedor privado
455
00:40:35,990 --> 00:40:40,850
que tiene inteligencia y
inteligencia artificial
456
00:40:40,850 --> 00:40:44,460
capacidades que el gobierno
ni siquiera puedo competir con.
457
00:40:46,370 --> 00:40:48,720
- Buenas noches, soy Peter Thiel.
458
00:40:49,740 --> 00:40:54,210
No soy un politico, pero
tampoco lo es Donald Trump.
459
00:40:54,210 --> 00:40:58,620
Es un constructor y es
hora de reconstruir América.
460
00:41:01,280 --> 00:41:03,940
- Peter Thiel,
el fundador de Palantir,
461
00:41:03,940 --> 00:41:06,680
fue asesor de transición de Donald Trump
462
00:41:06,680 --> 00:41:09,180
y un amigo cercano y donante.
463
00:41:11,080 --> 00:41:13,700
Trump fue elegido en gran parte por la promesa
464
00:41:13,700 --> 00:41:17,560
deportar a millones de inmigrantes.
465
00:41:17,560 --> 00:41:22,240
La única forma en que puedes hacer eso
es con mucha inteligencia
466
00:41:22,240 --> 00:41:25,010
y ahí es donde entra Palantir.
467
00:41:28,680 --> 00:41:33,340
Ellos ingieren enormes tesoros
de datos, que incluyen,
468
00:41:33,340 --> 00:41:37,370
donde vives, donde
tu trabajas, a quien conoces,
469
00:41:37,370 --> 00:41:40,930
quiénes son tus vecinos,
quien es tu familia,
470
00:41:40,930 --> 00:41:44,480
donde has visitado, donde te hospedas,
471
00:41:44,480 --> 00:41:46,320
su perfil de redes sociales.
472
00:41:49,250 --> 00:41:53,240
Palantir obtiene todo eso
y es notablemente bueno
473
00:41:53,240 --> 00:41:58,240
en estructurarlo de una manera
que ayuda a la aplicación de la ley,
474
00:41:58,460 --> 00:42:02,450
autoridades de inmigracion
o agencias de inteligencia
475
00:42:02,450 --> 00:42:06,210
de cualquier tipo, rastrearte, encontrarte,
476
00:42:06,210 --> 00:42:09,550
y aprende todo lo que hay
es saber de ti.
477
00:42:48,430 --> 00:42:51,040
- Estamos poniendo IA
carga ahora de siempre
478
00:42:51,040 --> 00:42:53,860
decisiones importantes que
afectar la vida de las personas.
479
00:42:54,810 --> 00:42:58,050
La IA de la vieja escuela solía tener
su inteligencia programada en
480
00:42:58,050 --> 00:43:01,420
por humanos que entendieron
cómo funcionó, pero hoy,
481
00:43:01,420 --> 00:43:04,080
potentes sistemas de IA tienen
acaban de aprender por sí mismos,
482
00:43:04,080 --> 00:43:07,480
y no tenemos ni idea de cómo funcionan,
483
00:43:07,480 --> 00:43:09,680
lo que hace que sea muy difícil confiar en ellos.
484
00:43:14,270 --> 00:43:17,820
- Esto no es algo futurista.
tecnología, esto es ahora.
485
00:43:19,470 --> 00:43:23,220
La IA podría ayudar a determinar
donde un departamento de bomberos
486
00:43:23,220 --> 00:43:25,900
está construido en una comunidad
o donde se construye una escuela.
487
00:43:25,900 --> 00:43:28,380
Podría decidir si obtienes fianza,
488
00:43:28,380 --> 00:43:30,680
o si permanece en la cárcel.
489
00:43:30,680 --> 00:43:32,930
Podría decidir dónde
la policía va a ser.
490
00:43:32,930 --> 00:43:37,140
Podría decidir si vas a ser
bajo escrutinio policial adicional.
491
00:43:43,340 --> 00:43:46,140
- Es popular ahora en los EE. UU.
para hacer vigilancia policial predictiva.
492
00:43:46,980 --> 00:43:50,900
Entonces, lo que hacen es usar un algoritmo
para averiguar dónde estará el crimen,
493
00:43:51,760 --> 00:43:55,240
- y lo usan para decir dónde
deberíamos enviar policías.
494
00:43:56,430 --> 00:43:59,420
Entonces eso está basado en un
medición de la tasa de criminalidad.
495
00:44:00,640 --> 00:44:02,330
Entonces sabemos que hay sesgo.
496
00:44:02,330 --> 00:44:05,090
Negros e hispanos
la gente es detenida,
497
00:44:05,090 --> 00:44:07,180
y detenido por la policía
oficiales con más frecuencia
498
00:44:07,180 --> 00:44:09,820
que los blancos, entonces nosotros
tienen estos datos sesgados,
499
00:44:09,820 --> 00:44:11,820
y luego que pasa
¿Usas eso para decir?
500
00:44:11,820 --> 00:44:13,640
"Oh, aquí es donde debería ir la policía".
501
00:44:13,640 --> 00:44:17,320
Bueno, la policía va a esos barrios
y adivinen lo que hacen, arrestan gente.
502
00:44:17,680 --> 00:44:21,160
Y luego retroalimenta
datos sesgados en el sistema,
503
00:44:21,160 --> 00:44:23,060
y eso se llama ciclo de retroalimentación.
504
00:44:35,990 --> 00:44:40,650
- Vigilancia predictiva
conduce a los extremos
505
00:44:41,590 --> 00:44:45,910
a los expertos que dicen: "Enséñame a tu bebé,
506
00:44:45,910 --> 00:44:48,860
"y te diré si
ella va a ser una criminal ".
507
00:44:51,300 --> 00:44:55,780
Ahora que podemos predecirlo,
luego vamos a vigilar
508
00:44:55,780 --> 00:45:01,100
esos niños mucho más de cerca
y vamos a saltar sobre ellos
509
00:45:01,100 --> 00:45:03,700
a la primera señal de un problema.
510
00:45:03,700 --> 00:45:06,700
Y eso va a hacer
para una vigilancia más eficaz.
511
00:45:07,000 --> 00:45:11,250
Lo hace, pero va a
hacer una sociedad realmente sombría
512
00:45:11,250 --> 00:45:16,250
y se refuerza
injusticias dramáticamente existentes.
513
00:45:22,960 --> 00:45:27,810
- Imagina un mundo en el que
redes de cámaras CCTV,
514
00:45:27,810 --> 00:45:30,930
vigilancia con drones
cámaras, tienen sofisticadas
515
00:45:30,930 --> 00:45:34,440
tecnologías de reconocimiento facial
y están conectados
516
00:45:34,440 --> 00:45:37,020
a otro gobierno
bases de datos de vigilancia.
517
00:45:38,080 --> 00:45:41,190
Tendremos el
tecnología en el lugar para tener
518
00:45:41,190 --> 00:45:45,690
todos nuestros movimientos de manera integral
rastreado y grabado.
519
00:45:47,680 --> 00:45:50,330
Lo que eso también significa es que tendremos
520
00:45:50,330 --> 00:45:52,940
creó una máquina del tiempo de vigilancia
521
00:45:52,940 --> 00:45:56,620
que permitirá a los gobiernos
y corporaciones poderosas
522
00:45:56,620 --> 00:45:58,710
esencialmente, rebobinar nuestras vidas.
523
00:45:58,710 --> 00:46:01,780
Puede que no estemos bajo sospecha ahora
524
00:46:01,780 --> 00:46:03,860
y dentro de cinco años,
es posible que quieran saber
525
00:46:03,860 --> 00:46:08,100
más sobre nosotros, y puede
luego recrear granularmente
526
00:46:08,100 --> 00:46:10,260
todo lo que hemos hecho
todos los que hemos visto,
527
00:46:10,260 --> 00:46:13,050
todos con los que hemos estado
durante todo ese período.
528
00:46:15,820 --> 00:46:19,320
Esa es una cantidad extraordinaria de poder
529
00:46:19,320 --> 00:46:21,660
para que podamos sembrar a cualquiera.
530
00:46:22,910 --> 00:46:25,370
Y es un mundo que yo
pensar ha sido dificil
531
00:46:25,370 --> 00:46:29,180
para que la gente se imagine,
pero ya hemos construido
532
00:46:29,180 --> 00:46:31,660
la arquitectura para permitir eso.
533
00:47:07,140 --> 00:47:10,290
- soy un reportero político
y estoy muy interesado
534
00:47:10,290 --> 00:47:14,670
en las formas en que las industrias poderosas
usar su poder político
535
00:47:14,670 --> 00:47:17,180
influir en el proceso de políticas públicas.
536
00:47:21,000 --> 00:47:24,420
Las grandes empresas tecnológicas y
sus cabilderos se juntan
537
00:47:24,420 --> 00:47:27,530
a puerta cerrada y
son capaces de elaborar políticas
538
00:47:27,530 --> 00:47:29,340
que todos tenemos que vivir.
539
00:47:30,790 --> 00:47:35,780
Eso es cierto para las políticas de vigilancia,
para las políticas en términos de recopilación de datos,
540
00:47:35,780 --> 00:47:40,540
pero también cada vez más importante cuando
llega a la política militar y exterior.
541
00:47:43,930 --> 00:47:50,220
A partir de 2016, el Departamento de Defensa
formó la Junta de Innovación de Defensa.
542
00:47:50,220 --> 00:47:54,010
Eso es un cuerpo especial creado
para traer altos ejecutivos tecnológicos
543
00:47:54,010 --> 00:47:56,420
en contacto más estrecho con los militares.
544
00:47:59,140 --> 00:48:01,750
Eric Schmidt, ex presidente de Alphabet,
545
00:48:01,750 --> 00:48:03,380
la empresa matriz de Google,
546
00:48:03,380 --> 00:48:07,240
se convirtió en el presidente de la
Junta de Innovación de Defensa,
547
00:48:07,240 --> 00:48:09,930
y uno de sus primeros
prioridades era decir,
548
00:48:09,930 --> 00:48:13,850
"Necesitamos más inteligencia artificial
integrado en el ejército ".
549
00:48:15,930 --> 00:48:19,190
- he trabajado con un grupo
de voluntarios en el
550
00:48:19,190 --> 00:48:22,150
últimos años para tomar
una mirada a la innovación en el
551
00:48:22,150 --> 00:48:26,780
militar en general, y mi resumen
La conclusión es que tenemos
552
00:48:26,780 --> 00:48:30,460
gente fantástica que es
atrapado en un sistema muy malo.
553
00:48:33,290 --> 00:48:35,700
- Del Departamento de
La perspectiva de la defensa,
554
00:48:35,700 --> 00:48:37,700
donde realmente comencé
interesarse en eso
555
00:48:37,700 --> 00:48:40,980
fue cuando empezamos a pensar
sobre sistemas no tripulados y
556
00:48:40,980 --> 00:48:45,980
cómo los sistemas robóticos y no tripulados
empezaría a cambiar la guerra.
557
00:48:46,160 --> 00:48:50,320
Cuanto más inteligente hiciste el
Sistemas y robots no tripulados,
558
00:48:50,320 --> 00:48:53,570
cuanto más poderoso puedas
ser capaz de hacer su ejército.
559
00:48:55,540 --> 00:48:57,240
- Subsecretario de Defensa,
560
00:48:57,240 --> 00:49:00,420
Robert Work juntos
un memorando importante conocido como
561
00:49:00,420 --> 00:49:03,680
la guerra algorítmica
Equipo multidisciplinar,
562
00:49:03,680 --> 00:49:05,540
más conocido como Project Maven.
563
00:49:07,830 --> 00:49:10,760
Eric Schmidt dio una serie de
discursos y apariciones en los medios
564
00:49:10,760 --> 00:49:14,310
donde dijo este esfuerzo
fue diseñado para aumentar el combustible
565
00:49:14,310 --> 00:49:18,240
eficiencia en la Fuerza Aérea,
para ayudar con la logística,
566
00:49:18,240 --> 00:49:21,300
pero a puerta cerrada hay
fue otro esfuerzo paralelo.
567
00:49:26,710 --> 00:49:29,760
A finales de 2017 como parte del Proyecto Maven,
568
00:49:29,760 --> 00:49:33,710
Google, la firma de Eric Schmidt,
tenía la tarea de trabajar en secreto
569
00:49:33,710 --> 00:49:36,100
en otra parte del Proyecto Maven,
570
00:49:36,100 --> 00:49:41,480
y eso fue para tomar el vasto
volúmenes de datos de imágenes aspirados
571
00:49:41,480 --> 00:49:47,060
por drones que operan en Irak
y Afganistán y para enseñar una IA
572
00:49:47,060 --> 00:49:49,690
para identificar rápidamente
objetivos en el campo de batalla.
573
00:49:52,600 --> 00:49:58,470
- Tenemos un sensor y el sensor
puede hacer videos de movimiento completo de una ciudad entera.
574
00:49:58,470 --> 00:50:01,690
Y tendríamos tres
equipos de siete personas trabajando
575
00:50:01,690 --> 00:50:06,360
constantemente y podrían
procesar el 15% de la información.
576
00:50:06,360 --> 00:50:08,950
El otro 85% de los
se acaba de dejar información
577
00:50:08,950 --> 00:50:14,040
en el piso de la sala de despiece, así que dijimos,
"Oye, IA y aprendizaje automático
578
00:50:14,040 --> 00:50:17,810
"nos ayudaría a procesar
100% de la información ".
579
00:50:25,380 --> 00:50:28,760
- Google ha tenido durante mucho tiempo
el lema, "No seas malvado".
580
00:50:28,760 --> 00:50:30,630
Han creado una imagen pública
581
00:50:30,630 --> 00:50:35,080
que son devotos
a la transparencia pública.
582
00:50:35,080 --> 00:50:39,200
Pero para que Google lentamente
transformarse en un contratista de defensa,
583
00:50:39,200 --> 00:50:41,720
ellos mantuvieron
el mayor secreto.
584
00:50:41,720 --> 00:50:45,280
Y tenías a Google entrando en
este contrato con la mayoría de los empleados,
585
00:50:45,280 --> 00:50:49,020
incluso los empleados que estaban trabajando en
el programa quedó completamente en la oscuridad.
586
00:51:01,840 --> 00:51:05,050
- Generalmente dentro de Google,
cualquiera en la empresa
587
00:51:05,050 --> 00:51:08,100
se le permite saber sobre cualquier
otro proyecto que esta pasando
588
00:51:08,100 --> 00:51:09,800
en alguna otra parte de la empresa.
589
00:51:11,180 --> 00:51:14,300
Con Project Maven, el hecho
que se mantuvo en secreto,
590
00:51:14,300 --> 00:51:18,740
Creo que fue alarmante para la gente
porque esa no es la norma en Google.
591
00:51:20,620 --> 00:51:22,940
- Cuando se reveló esta historia por primera vez,
592
00:51:22,940 --> 00:51:25,540
desató una tormenta de fuego dentro de Google.
593
00:51:25,540 --> 00:51:28,420
Tenías varios empleados
renunciar en protestas,
594
00:51:28,420 --> 00:51:31,900
otros firmando una petición
objetando este trabajo.
595
00:51:34,130 --> 00:51:37,680
- Tienes que decir realmente,
"Ya no quiero ser parte de esto".
596
00:51:38,820 --> 00:51:41,750
Hay empresas
llamados contratistas de defensa
597
00:51:41,750 --> 00:51:45,830
y Google simplemente no debería
ser una de esas empresas
598
00:51:45,830 --> 00:51:50,040
porque la gente necesita confiar
Google para que Google funcione.
599
00:51:52,070 --> 00:51:55,710
- Buenos días y bienvenido a Google I / O.
600
00:51:57,310 --> 00:52:00,160
- Hemos visto correos electrónicos que
mostrar que Google simplemente
601
00:52:00,160 --> 00:52:03,350
continuó engañando a sus
empleados que el dron
602
00:52:03,350 --> 00:52:07,390
El programa de orientación fue solo un
esfuerzo menor que a lo sumo
603
00:52:07,390 --> 00:52:11,170
valdrá $ 9 millones para la empresa,
que es gotas en el balde
604
00:52:11,170 --> 00:52:13,540
para una empresa gigantesca como Google.
605
00:52:14,400 --> 00:52:17,300
Pero de los correos electrónicos internos que obtuvimos,
606
00:52:17,300 --> 00:52:21,530
Google esperaba Project
Maven aumentaría tanto
607
00:52:21,530 --> 00:52:26,530
como $ 250 millones, y que esto
todo el esfuerzo proporcionaría
608
00:52:26,630 --> 00:52:29,900
Google con defensa especial
Certificación del departamento para realizar
609
00:52:29,900 --> 00:52:32,660
ellos disponibles para incluso
contratos de defensa más grandes,
610
00:52:32,660 --> 00:52:34,980
algunos valen hasta $ 10 mil millones.
611
00:52:45,710 --> 00:52:49,750
La presión para que Google
competir por contratos militares
612
00:52:49,750 --> 00:52:53,780
ha llegado en un momento en que sus competidores
también están cambiando su cultura.
613
00:52:55,850 --> 00:53:00,070
Amazon, lanzando de manera similar
fuerzas del orden y militares.
614
00:53:00,070 --> 00:53:02,280
IBM y otras firmas líderes,
615
00:53:02,280 --> 00:53:04,890
están lanzando la ley
aplicación y militar.
616
00:53:05,840 --> 00:53:09,420
Para seguir siendo competitivo, Google
se ha transformado lentamente.
617
00:53:15,150 --> 00:53:18,910
- La ciencia de la defensa
Junta dijo de todos los
618
00:53:18,910 --> 00:53:22,170
avances tecnológicos que
están sucediendo ahora mismo,
619
00:53:22,170 --> 00:53:26,780
lo más importante
era inteligencia artificial
620
00:53:26,780 --> 00:53:30,780
y las operaciones autónomas
que conduciría.
621
00:53:30,780 --> 00:53:32,330
¿Estamos invirtiendo lo suficiente?
622
00:53:37,810 --> 00:53:41,220
- Una vez que desarrollamos lo que se conoce como
623
00:53:41,220 --> 00:53:45,820
armas letales autónomas, en otras palabras,
624
00:53:45,820 --> 00:53:51,510
armas que no están controladas en absoluto,
son genuinamente autónomos,
625
00:53:51,510 --> 00:53:54,000
solo tienes que conseguir
un presidente que dice,
626
00:53:54,000 --> 00:53:56,410
"Al diablo con el derecho internacional,
tenemos estas armas.
627
00:53:56,410 --> 00:53:58,560
"Vamos a hacer lo que
queremos con ellos ".
628
00:54:02,540 --> 00:54:03,960
- Estaban muy cerca.
629
00:54:03,960 --> 00:54:06,340
Cuando tienes el hardware
ya configurado
630
00:54:06,340 --> 00:54:10,360
y todo lo que tienes que hacer es encender un interruptor
para hacerlo completamente autónomo,
631
00:54:10,360 --> 00:54:13,240
¿Qué hay ahí?
impidiéndote hacer eso?
632
00:54:14,670 --> 00:54:19,080
Hay algo realmente a lo que temer
en guerra a velocidad de máquina.
633
00:54:19,930 --> 00:54:24,370
¿Y si eres una máquina y has corrido?
millones y millones de escenarios de guerra diferentes
634
00:54:24,370 --> 00:54:28,060
y tienes un equipo de drones y
ha delegado el control a la mitad de ellos,
635
00:54:28,060 --> 00:54:30,790
y estás colaborando en tiempo real?
636
00:54:30,790 --> 00:54:35,600
¿Qué pasa cuando ese enjambre de drones
tiene la tarea de involucrar a una ciudad?
637
00:54:37,490 --> 00:54:39,870
¿Cómo se apoderarán de esa ciudad?
638
00:54:39,870 --> 00:54:42,760
La respuesta es que no lo haremos
saber hasta que suceda.
639
00:54:50,020 --> 00:54:53,910
- No queremos que un sistema de IA decida
640
00:54:53,910 --> 00:54:56,180
que humano atacaría,
641
00:54:56,180 --> 00:54:59,500
pero vamos en contra
competidores autoritarios.
642
00:54:59,500 --> 00:55:02,450
Entonces, en mi opinión, un régimen autoritario
643
00:55:02,450 --> 00:55:05,710
tendrá menos problemas
delegar autoridad
644
00:55:05,710 --> 00:55:08,460
a una máquina para tomar decisiones letales.
645
00:55:09,410 --> 00:55:12,660
Entonces, queda por ver cómo se desarrolla eso.
646
00:55:37,270 --> 00:55:41,020
- Casi el don de la IA
ahora es que nos va a obligar
647
00:55:41,020 --> 00:55:44,410
colectivamente para pensar
a un nivel muy básico,
648
00:55:44,410 --> 00:55:46,310
¿Qué significa ser humano?
649
00:55:48,620 --> 00:55:50,510
¿Qué hago mejor como humano?
650
00:55:50,510 --> 00:55:52,970
que cierto
máquina súper inteligente puede hacer?
651
00:55:56,300 --> 00:56:01,000
Primero, creamos nuestra tecnología
y luego nos recrea.
652
00:56:01,000 --> 00:56:05,630
Necesitamos asegurarnos de que
no te pierdas algunas de las cosas
653
00:56:05,630 --> 00:56:07,520
que nos hacen tan hermosos humanos.
654
00:56:11,840 --> 00:56:14,380
- Una vez que construimos máquinas inteligentes,
655
00:56:14,380 --> 00:56:16,920
el vocabulario filosófico
tenemos disponible para pensar
656
00:56:16,920 --> 00:56:20,680
sobre nosotros mismos como humanos
cada vez más nos falla.
657
00:56:23,160 --> 00:56:25,950
Si te pido que escribas un
lista de todos los términos que tienes
658
00:56:25,950 --> 00:56:28,960
disponible para describirte a ti mismo como humano,
659
00:56:28,960 --> 00:56:31,100
no hay tantos términos.
660
00:56:31,100 --> 00:56:38,140
Cultura, historia, sociabilidad,
tal vez política, civilización,
661
00:56:38,820 --> 00:56:45,090
subjetividad, todos estos
términos molidos en dos posiciones
662
00:56:45,670 --> 00:56:48,020
que los humanos somos más que simples animales
663
00:56:49,000 --> 00:56:52,200
y que los humanos somos
más que meras máquinas.
664
00:56:55,140 --> 00:56:59,290
Pero si las máquinas realmente
creo que hay un gran conjunto
665
00:56:59,290 --> 00:57:03,520
de preguntas filosóficas clave
en el que lo que está en juego es:
666
00:57:04,880 --> 00:57:09,080
¿Quienes somos? ¿Cuál es nuestro lugar en el mundo?
Que es el mundo Como esta estructurado
667
00:57:09,080 --> 00:57:12,190
¿Las categorías en las que nos hemos basado
668
00:57:12,190 --> 00:57:14,510
- ¿Todavía funcionan? ¿Estaban equivocados?
669
00:57:19,500 --> 00:57:22,220
- Mucha gente piensa en inteligencia
como algo misterioso
670
00:57:22,220 --> 00:57:26,190
que solo puede existir dentro de
organismos biológicos, como nosotros,
671
00:57:26,190 --> 00:57:29,260
pero la inteligencia lo es todo
sobre el procesamiento de la información.
672
00:57:30,280 --> 00:57:32,230
No importa si
la inteligencia se procesa
673
00:57:32,230 --> 00:57:35,940
por átomos de carbono dentro de
células y cerebros, y personas,
674
00:57:35,940 --> 00:57:38,020
o por átomos de silicio en computadoras.
675
00:57:40,700 --> 00:57:43,320
Parte del éxito de
La IA ha llegado recientemente
676
00:57:43,320 --> 00:57:47,540
de robar grandes ideas de la evolución.
677
00:57:47,540 --> 00:57:49,320
Notamos que el cerebro, por ejemplo,
678
00:57:49,320 --> 00:57:52,920
tiene todas estas neuronas adentro
conectado de formas complicadas.
679
00:57:52,920 --> 00:57:55,660
Así que robamos esa idea y la abstraemos
680
00:57:55,660 --> 00:57:58,350
en neuronales artificiales
redes en computadoras,
681
00:57:59,330 --> 00:58:02,800
y eso es lo que ha revolucionado
inteligencia de la máquina.
682
00:58:07,690 --> 00:58:10,300
Si un día nos volvemos artificiales
Inteligencia general,
683
00:58:10,300 --> 00:58:14,330
entonces, por definición, la IA puede
también hacen mejor el trabajo de la IA
684
00:58:14,330 --> 00:58:18,930
programación y eso significa
que un mayor progreso en la realización
685
00:58:18,930 --> 00:58:22,950
La IA no estará dominada por
programadores humanos, sino por IA.
686
00:58:25,450 --> 00:58:29,090
IA de mejora automática recursiva
podría dejar la inteligencia humana
687
00:58:29,090 --> 00:58:32,990
muy por detrás de,
creando super inteligencia.
688
00:58:34,970 --> 00:58:37,970
Va a ser el ultimo
invención que siempre necesitamos hacer,
689
00:58:37,970 --> 00:58:40,520
porque luego puede inventar todo lo demás
690
00:58:40,520 --> 00:58:42,010
mucho más rápido de lo que pudimos.
691
00:59:54,040 --> 00:59:59,040
- Hay un futuro que
todos necesitamos hablar.
692
00:59:59,110 --> 01:00:02,430
Algunos de los fundamentales
preguntas sobre el futuro
693
01:00:02,430 --> 01:00:06,280
de inteligencia artificial,
no solo a donde va,
694
01:00:06,280 --> 01:00:09,630
sino lo que significa para la sociedad ir allí.
695
01:00:10,930 --> 01:00:14,620
No es lo que pueden hacer las computadoras,
696
01:00:14,620 --> 01:00:17,590
pero qué deberían hacer las computadoras.
697
01:00:17,590 --> 01:00:22,210
Como la generación de personas
que está llevando la IA al futuro,
698
01:00:22,210 --> 01:00:27,690
somos la generación que lo hará
responda esta pregunta en primer lugar.
699
01:00:34,570 --> 01:00:37,380
- No hemos creado el
máquina de pensar a nivel humano todavía,
700
01:00:37,380 --> 01:00:39,410
pero nos acercamos más y más.
701
01:00:41,100 --> 01:00:44,780
Tal vez lleguemos al nivel humano
IA en cinco años a partir de ahora
702
01:00:44,780 --> 01:00:47,410
o tal vez se necesiten 50
o dentro de 100 años.
703
01:00:47,660 --> 01:00:51,540
Casi no importa.
Como si todos fueran muy, muy pronto,
704
01:00:51,540 --> 01:00:56,060
en términos de la general
historia de la humanidad.
705
01:01:01,200 --> 01:01:02,180
Muy agradable.
706
01:01:15,750 --> 01:01:19,350
Entonces, el campo de la IA es
extremadamente internacional.
707
01:01:19,350 --> 01:01:23,790
China está en auge y es
comenzando a rivalizar con los Estados Unidos,
708
01:01:23,790 --> 01:01:26,940
Europa y Japón en términos de poner mucho
709
01:01:26,940 --> 01:01:29,770
de potencia de procesamiento detrás de la IA
710
01:01:29,770 --> 01:01:33,120
y reuniendo un montón de
datos para ayudar a la IA a aprender.
711
01:01:35,960 --> 01:01:40,540
Tenemos una generación joven
de los investigadores chinos ahora.
712
01:01:40,540 --> 01:01:43,910
Nadie sabe donde el próximo
la revolución va a venir.
713
01:01:50,120 --> 01:01:54,290
- China siempre quiso convertirse
la superpotencia del mundo.
714
01:01:56,120 --> 01:01:59,410
El gobierno chino piensa que la IA
les dio la oportunidad de convertirse
715
01:01:59,410 --> 01:02:03,940
uno de los mas avanzados
en tecnología, en negocios.
716
01:02:04,190 --> 01:02:07,780
Entonces el gobierno chino mira
esto como una gran oportunidad.
717
01:02:09,140 --> 01:02:13,670
Como si hubieran levantado una bandera
y dijo: "Ese es un buen campo.
718
01:02:13,670 --> 01:02:16,300
"Las empresas deberían lanzarse a ello".
719
01:02:16,300 --> 01:02:18,300
Entonces el mundo comercial de China
y las empresas dicen,
720
01:02:18,300 --> 01:02:20,800
"Está bien, el gobierno
levantó una bandera, eso es bueno.
721
01:02:20,800 --> 01:02:22,500
"Pongamos el dinero en ello".
722
01:02:23,900 --> 01:02:28,090
Gigantes tecnológicos chinos, como Baidu,
como Tencent y como AliBaba,
723
01:02:28,090 --> 01:02:31,800
pusieron un montón de
inversión en el campo de la IA.
724
01:02:33,410 --> 01:02:36,740
Entonces vemos que la IA de China
el desarrollo está en auge.
725
01:02:43,430 --> 01:02:47,370
- En China, todos
¿Alipay y WeChat pagan?
726
01:02:47,370 --> 01:02:49,500
por lo que el pago móvil está en todas partes.
727
01:02:50,850 --> 01:02:54,850
Y con eso pueden
hacer muchos análisis de IA
728
01:02:54,850 --> 01:02:59,340
saber como tu gasto
hábitos, su calificación crediticia.
729
01:03:01,150 --> 01:03:06,100
Tecnología de reconocimiento facial
es ampliamente adoptado en China,
730
01:03:06,100 --> 01:03:08,200
en aeropuertos y estaciones de tren.
731
01:03:09,040 --> 01:03:11,570
Entonces, en el futuro, tal vez
en solo unos meses,
732
01:03:11,570 --> 01:03:15,140
no necesitas un papel
billete para abordar un tren.
733
01:03:15,140 --> 01:03:15,970
Solo tu cara.
734
01:03:24,620 --> 01:03:29,690
- Generamos la plataforma más grande del mundo
de reconocimiento facial.
735
01:03:31,260 --> 01:03:37,300
Contamos con 300.000 desarrolladores
utilizando nuestra plataforma.
736
01:03:38,330 --> 01:03:41,550
Mucho de esto son aplicaciones de cámara para selfies.
737
01:03:41,550 --> 01:03:43,930
Te hace lucir más bella.
738
01:03:46,550 --> 01:03:49,780
Hay millones y millones
de cámaras en el mundo,
739
01:03:50,760 --> 01:03:54,880
cada cámara desde mi punto
es un generador de datos.
740
01:03:58,820 --> 01:04:02,810
En el ojo de una máquina, tu cara
cambiará a las características
741
01:04:02,810 --> 01:04:06,660
y te volverá la cara
en un párrafo de código.
742
01:04:07,720 --> 01:04:11,980
Para que podamos detectar tu edad
son, si eres hombre o mujer,
743
01:04:11,980 --> 01:04:13,440
y tus emociones.
744
01:04:16,640 --> 01:04:20,110
Ir de compras se trata de qué tipo
de lo que estás mirando.
745
01:04:20,110 --> 01:04:25,650
Podemos rastrear tus ojos,
por lo que si se centra en algún producto,
746
01:04:25,650 --> 01:04:28,690
podemos rastrear eso para que podamos saber
747
01:04:28,690 --> 01:04:32,120
que tipo de gente le gusta
qué tipo de producto.
748
01:04:42,450 --> 01:04:45,820
Nuestra misión es crear una plataforma
749
01:04:45,950 --> 01:04:50,300
que permitirá a millones de IA
desarrolladores en China.
750
01:04:51,280 --> 01:04:58,060
Estudiamos todos los datos que podemos obtener.
751
01:05:00,440 --> 01:05:04,350
No solo perfiles de usuario,
752
01:05:04,350 --> 01:05:08,380
pero lo que estas haciendo en este momento,
753
01:05:09,460 --> 01:05:12,060
su ubicación geográfica.
754
01:05:15,380 --> 01:05:23,580
Esta plataforma será tan valiosa que no
incluso preocuparse por las ganancias ahora,
755
01:05:23,580 --> 01:05:27,660
porque definitivamente está ahí.
756
01:05:29,660 --> 01:05:34,420
El sistema de crédito social de China es
solo una de las aplicaciones.
757
01:05:45,990 --> 01:05:48,040
- El gobierno chino está utilizando múltiples
758
01:05:48,040 --> 01:05:50,810
diferentes tipos de
tecnologías, ya sea IA,
759
01:05:50,810 --> 01:05:53,650
si es big data
plataformas, reconocimiento facial,
760
01:05:53,650 --> 01:05:57,030
reconocimiento de voz, esencialmente para monitorear
761
01:05:57,030 --> 01:05:58,800
lo que hace la población.
762
01:06:01,860 --> 01:06:04,240
Creo que los chinos
el gobierno ha dejado muy claro
763
01:06:04,240 --> 01:06:09,240
su intención de reunir masiva
cantidades de datos sobre personas
764
01:06:09,600 --> 01:06:13,300
para diseñar socialmente un
sociedad libre de disensiones.
765
01:06:16,040 --> 01:06:19,060
La lógica detrás del gobierno chino
766
01:06:19,060 --> 01:06:23,180
sistema de crédito social,
es tomar la idea de que
767
01:06:23,180 --> 01:06:27,930
si eres crédito
digno de un préstamo financiero
768
01:06:27,930 --> 01:06:31,860
y añadiéndole un muy
dimensión política para decir,
769
01:06:31,860 --> 01:06:34,270
"¿Eres un ser humano de confianza?
770
01:06:36,530 --> 01:06:40,270
"Lo que has dicho en línea, ¿alguna vez has estado
crítico de las autoridades?
771
01:06:40,270 --> 01:06:42,190
"¿Tiene antecedentes penales?"
772
01:06:43,720 --> 01:06:47,340
Y toda esa información es
empaquetados juntos para calificar
773
01:06:47,340 --> 01:06:51,820
tú de maneras que si tienes
funcionó bien en su opinión,
774
01:06:51,820 --> 01:06:56,490
tendrás un acceso más fácil a ciertos tipos
de los servicios o beneficios estatales.
775
01:06:57,790 --> 01:06:59,710
Pero si no lo has hecho muy bien,
776
01:06:59,710 --> 01:07:02,130
vas a ser
sancionado o restringido.
777
01:07:05,940 --> 01:07:09,020
No hay forma de que la gente
desafiar esas designaciones
778
01:07:09,020 --> 01:07:12,100
o, en algunos casos, incluso saber que
han sido puestos en esa categoría,
779
01:07:12,100 --> 01:07:17,990
y no es hasta que intentan acceder a algún tipo
del servicio estatal o comprar un boleto de avión,
780
01:07:17,990 --> 01:07:20,460
u obtener un pasaporte, o
inscribir a su hijo en la escuela,
781
01:07:20,460 --> 01:07:23,590
que vienen a aprender que han
ha sido etiquetado de esta manera,
782
01:07:23,590 --> 01:07:27,550
y que hay negativas
consecuencias para ellos como resultado.
783
01:07:44,970 --> 01:07:48,660
Hemos gastado la mejor parte
de los últimos uno o dos años
784
01:07:48,660 --> 01:07:53,180
mirando abusos de vigilancia
tecnología en China,
785
01:07:53,180 --> 01:07:56,030
y mucho de ese trabajo
nos ha llevado a Xinjiang,
786
01:07:57,580 --> 01:08:01,220
la región noroeste de
China que tiene más de la mitad
787
01:08:01,220 --> 01:08:05,870
población de musulmanes turcos,
Uigures, kazajos y hui.
788
01:08:08,430 --> 01:08:10,980
Esta es una región y una
población el gobierno chino
789
01:08:10,980 --> 01:08:14,900
ha considerado durante mucho tiempo ser
políticamente sospechoso o desleal.
790
01:08:17,580 --> 01:08:20,160
Vinimos a buscar información
sobre lo que se llama
791
01:08:20,160 --> 01:08:23,130
la Plataforma Integrada de Operaciones Conjuntas,
792
01:08:23,130 --> 01:08:27,190
que es una vigilancia predictiva
programa y ese es uno
793
01:08:27,190 --> 01:08:30,650
de los programas que ha sido
escupir listas de nombres
794
01:08:30,650 --> 01:08:33,560
de personas a ser sometidas
a la reeducación política.
795
01:08:39,090 --> 01:08:42,770
Algunos de nuestros entrevistados
para el informe que acabamos de publicar
796
01:08:42,770 --> 01:08:46,110
sobre la educación política
campamentos en Xinjiang solo
797
01:08:46,110 --> 01:08:50,380
pintó un extraordinario
retrato de un estado de vigilancia.
798
01:08:53,460 --> 01:08:56,380
Una región inundada de cámaras de vigilancia
799
01:08:56,380 --> 01:09:00,600
para fines de reconocimiento facial,
puestos de control, escáneres corporales,
800
01:09:00,600 --> 01:09:04,030
Códigos QR fuera de las casas de las personas.
801
01:09:05,660 --> 01:09:10,690
Sí, realmente es cosa distópica
películas a las que todos hemos ido y pensado,
802
01:09:10,690 --> 01:09:13,160
"Vaya, eso sería un
mundo espeluznante para vivir ".
803
01:09:13,160 --> 01:09:16,510
Sí, bueno, 13 millones
Musulmanes turcos en China
804
01:09:16,510 --> 01:09:18,530
están viviendo en esa realidad ahora mismo.
805
01:09:30,840 --> 01:09:33,060
- Los informes de Intercept
que Google planea
806
01:09:33,060 --> 01:09:36,490
lanzar una versión censurada de
su motor de búsqueda en China.
807
01:09:36,490 --> 01:09:38,730
- Búsqueda de Google
para nuevos mercados lo lidera
808
01:09:38,730 --> 01:09:42,170
a China, a pesar de la
reglas sobre censura.
809
01:09:42,170 --> 01:09:44,080
- Cuéntanos más
sobre por qué sentiste que era
810
01:09:44,080 --> 01:09:46,650
tu responsabilidad ética de dimitir,
811
01:09:46,650 --> 01:09:51,060
porque hablas de ser cómplice de
censura y opresión y vigilancia.
812
01:09:51,060 --> 01:09:54,220
- hay un chino
empresa de riesgo que tiene que ser
813
01:09:54,220 --> 01:09:56,230
configurado para que Google opere en China.
814
01:09:56,230 --> 01:09:58,920
Y la pregunta es, ¿a qué
grado llegaron a controlar
815
01:09:58,920 --> 01:10:01,970
la lista negra y a que
grado tendrían solo
816
01:10:01,970 --> 01:10:05,220
acceso sin restricciones a
vigilar a los ciudadanos chinos?
817
01:10:05,220 --> 01:10:07,470
Y el hecho de que Google
se niega a responder
818
01:10:07,470 --> 01:10:09,250
a las organizaciones de derechos humanos sobre esto,
819
01:10:09,250 --> 01:10:12,060
Creo que debería ser extremadamente
perturbador para todos.
820
01:10:16,640 --> 01:10:21,120
Debido a mi convicción de que la disidencia es
fundamental para el funcionamiento de las democracias
821
01:10:21,120 --> 01:10:25,560
y obligado a dimitir para evitar
contribuyendo o beneficiándose de la erosión
822
01:10:25,560 --> 01:10:27,510
de protecciones para disidentes.
823
01:10:28,560 --> 01:10:30,920
La ONU está actualmente
informando que entre
824
01:10:30,920 --> 01:10:34,190
200.000 y un millón
Los uigures han desaparecido
825
01:10:34,190 --> 01:10:36,520
en campos de reeducación.
826
01:10:36,520 --> 01:10:39,290
Y hay un argumento serio
que Google sería cómplice
827
01:10:39,290 --> 01:10:42,460
¿Debería lanzar un vigilado
versión de búsqueda en China.
828
01:10:45,180 --> 01:10:51,380
Dragonfly es un proyecto destinado
para iniciar la búsqueda en China bajo
829
01:10:51,390 --> 01:10:55,810
Regulaciones del gobierno chino,
que incluyen censurar
830
01:10:55,810 --> 01:10:59,510
contenido sensible, básico
consultas sobre derechos humanos,
831
01:10:59,510 --> 01:11:03,210
información sobre política
representantes está bloqueado,
832
01:11:03,210 --> 01:11:07,080
información sobre el estudiante
Las protestas están bloqueadas.
833
01:11:07,080 --> 01:11:09,180
Y esa es una pequeña parte.
834
01:11:09,180 --> 01:11:12,250
Quizás una preocupación más profunda es
el lado de la vigilancia de esto.
835
01:11:16,070 --> 01:11:19,580
Cuando planteé el problema a mis gerentes,
con mis colegas,
836
01:11:19,580 --> 01:11:23,370
había mucha preocupación, pero todos
sólo dijo: "No sé nada".
837
01:11:27,760 --> 01:11:30,200
Y luego, cuando finalmente hubo una reunión,
838
01:11:30,200 --> 01:11:35,080
esencialmente no había direccionamiento
las graves preocupaciones asociadas con él.
839
01:11:37,010 --> 01:11:39,790
Entonces presenté mi renuncia formal,
840
01:11:39,790 --> 01:11:42,950
no solo a mi gerente,
pero en realidad lo distribuí en toda la empresa.
841
01:11:42,950 --> 01:11:45,440
Y esa es la carta
del que estaba leyendo.
842
01:11:50,360 --> 01:11:55,960
Personalmente, no he dormido bien.
He tenido unos dolores de cabeza bastante horribles
843
01:11:55,960 --> 01:11:58,520
despierta en medio de
la noche acaba sudando.
844
01:12:00,640 --> 01:12:03,340
Dicho esto, lo que yo
encontrado desde que hablé
845
01:12:03,340 --> 01:12:07,930
es lo positivo que es el global
La respuesta a esto ha sido.
846
01:12:10,350 --> 01:12:13,910
Los ingenieros deben exigir
para saber para que sirve
847
01:12:13,910 --> 01:12:16,280
de sus contribuciones técnicas son
848
01:12:16,280 --> 01:12:19,340
y tomar asiento a la mesa
en esas decisiones éticas.
849
01:12:27,020 --> 01:12:29,590
La mayoría de los ciudadanos realmente no
entender lo que significa ser
850
01:12:29,590 --> 01:12:32,250
en una escala muy grande
tecnología prescriptiva.
851
01:12:33,720 --> 01:12:36,260
Donde alguien ya ha
pre-dividido el trabajo
852
01:12:36,260 --> 01:12:38,300
y todo lo que sabes sobre
es tu pedacito,
853
01:12:38,300 --> 01:12:41,150
y casi seguro que no
entender cómo encaja.
854
01:12:44,630 --> 01:12:51,040
Entonces, creo que vale la pena dibujar la analogía
al trabajo de los físicos sobre la bomba atómica.
855
01:12:53,840 --> 01:12:56,610
De hecho, eso es en realidad
la comunidad de la que salí.
856
01:12:59,220 --> 01:13:03,460
No era un científico nuclear de ninguna manera,
pero yo era un matemático aplicado
857
01:13:04,400 --> 01:13:09,400
y mi programa de doctorado fue financiado
capacitar a las personas para que trabajen en laboratorios de armas.
858
01:13:12,980 --> 01:13:17,100
Ciertamente se podría argumentar
que hay una amenaza existencial
859
01:13:17,820 --> 01:13:22,060
y quien sea que lidere
en AI liderará militarmente.
860
01:13:31,420 --> 01:13:34,250
- China espera plenamente
pasar los Estados Unidos
861
01:13:34,250 --> 01:13:37,480
como la economía número uno en
el mundo y cree que
862
01:13:37,480 --> 01:13:42,450
La IA hará que ese salto sea más
rápida y dramáticamente.
863
01:13:43,900 --> 01:13:46,480
Y también lo ven como
ser capaz de saltar
864
01:13:46,480 --> 01:13:49,820
los Estados Unidos en
términos de poder militar.
865
01:13:57,580 --> 01:13:59,600
Su plan es muy simple.
866
01:13:59,600 --> 01:14:03,620
Queremos atrapar a los Estados Unidos
y estas tecnologías para 2020,
867
01:14:03,620 --> 01:14:07,940
queremos superar a Estados Unidos
en estas tecnologías para 2025,
868
01:14:07,940 --> 01:14:12,600
y queremos ser el líder mundial en IA
y tecnologías autónomas para 2030.
869
01:14:15,110 --> 01:14:16,850
Es un plan nacional.
870
01:14:16,850 --> 01:14:21,790
Está respaldado por al menos
$ 150 mil millones en inversiones.
871
01:14:21,790 --> 01:14:25,060
Entonces, esta es definitivamente una carrera.
872
01:14:50,070 --> 01:14:52,070
- La IA es un poco como el fuego.
873
01:14:53,360 --> 01:14:56,270
El fuego se inventó hace 700.000 años,
874
01:14:57,480 --> 01:14:59,820
y tiene sus pros y sus contras.
875
01:15:01,960 --> 01:15:06,810
La gente se dio cuenta de que puedes usar fuego
para calentarme por la noche y cocinar,
876
01:15:08,520 --> 01:15:14,420
pero también se dieron cuenta de que puedes
matar a otras personas con eso.
877
01:15:19,860 --> 01:15:24,300
El fuego también tiene esto
Calidad de cultivo similar a la IA
878
01:15:24,300 --> 01:15:27,400
en un incendio forestal sin más preámbulos humanos,
879
01:15:30,530 --> 01:15:35,970
pero las ventajas superan
las desventajas por tanto
880
01:15:35,970 --> 01:15:39,760
que no vamos
para detener su desarrollo.
881
01:15:49,540 --> 01:15:51,180
Europa está despertando.
882
01:15:52,160 --> 01:15:58,390
Muchas empresas en Europa
se están dando cuenta de que la próxima ola de IA
883
01:15:58,730 --> 01:16:01,540
será mucho más grande que la ola actual.
884
01:16:03,310 --> 01:16:08,000
La próxima ola de IA será sobre robots.
885
01:16:09,810 --> 01:16:15,450
Todas estas maquinas que hacen
cosas que producen cosas
886
01:16:15,450 --> 01:16:19,370
que construyen otras máquinas,
se volverán inteligentes.
887
01:16:26,660 --> 01:16:29,950
En un futuro no muy lejano,
tendremos robots
888
01:16:29,950 --> 01:16:33,290
que podemos enseñar como enseñamos a los niños.
889
01:16:35,640 --> 01:16:38,660
Por ejemplo, hablaré con un
pequeño robot y te diré,
890
01:16:39,970 --> 01:16:42,550
"Mira aquí, robot, mira aquí.
891
01:16:42,550 --> 01:16:44,620
"Armemos un teléfono inteligente.
892
01:16:44,620 --> 01:16:48,720
"Tomamos esta losa de plástico así
y cogemos un destornillador así,
893
01:16:48,720 --> 01:16:52,310
"y ahora lo arruinamos todo así.
894
01:16:52,310 --> 01:16:54,310
"No, no, no así.
895
01:16:54,310 --> 01:16:57,690
"Así, mira, robot, mira, así".
896
01:16:58,820 --> 01:17:01,890
Y fallará un par
de veces, pero bastante rápido,
897
01:17:01,890 --> 01:17:05,860
el aprenderá a hacer lo mismo
mucho mejor de lo que podría hacerlo.
898
01:17:06,710 --> 01:17:11,400
Y luego paramos el aprendizaje
y hacemos un millón de copias y lo vendemos.
899
01:17:32,410 --> 01:17:35,800
Regulación de los sonidos de la IA
como una idea atractiva,
900
01:17:35,800 --> 01:17:38,210
pero no creo que sea posible.
901
01:17:40,250 --> 01:17:42,720
Una de las razones por las que no funcionará es
902
01:17:42,720 --> 01:17:46,360
la pura curiosidad de los científicos.
903
01:17:47,260 --> 01:17:49,560
Les importa un comino la regulación.
904
01:17:52,640 --> 01:17:56,740
Los poderes militares no darán un
maldita sea por las regulaciones.
905
01:17:56,740 --> 01:17:59,020
Ellos diran,
"Si nosotros, los estadounidenses no lo hacemos,
906
01:17:59,020 --> 01:18:00,720
"Entonces los chinos lo harán".
907
01:18:00,720 --> 01:18:03,150
Y los chinos dirán
"Oh, si no lo hacemos,
908
01:18:03,150 --> 01:18:04,810
"Entonces los rusos lo harán".
909
01:18:07,700 --> 01:18:10,930
No importa qué tipo de política
la regulación está ahí fuera,
910
01:18:10,930 --> 01:18:14,660
todos estos complejos industriales militares,
911
01:18:14,660 --> 01:18:17,570
casi lo harán
definición tiene que ignorar eso
912
01:18:18,670 --> 01:18:21,250
porque quieren evitar quedarse atrás.
913
01:18:26,030 --> 01:18:27,690
Bienvenidos a Xinhua.
914
01:18:27,690 --> 01:18:30,260
Soy la primera mujer del mundo
Presentador de noticias de IA desarrollado
915
01:18:30,260 --> 01:18:32,690
conjuntamente por Xinhua y
empresa de motores de búsqueda Sogou.
916
01:18:33,050 --> 01:18:36,310
- Un programa desarrollado por
la empresa OpenAI puede escribir
917
01:18:36,310 --> 01:18:39,500
historias coherentes y creíbles
como los seres humanos.
918
01:18:39,500 --> 01:18:41,520
- Es un pequeño paso para la máquina,
919
01:18:41,520 --> 01:18:44,330
un gran salto para el tipo de máquina.
920
01:18:44,330 --> 01:18:47,170
El artificial más nuevo de IBM
el sistema de inteligencia asumió
921
01:18:47,170 --> 01:18:51,570
debatidores humanos experimentados
y ganó un debate en vivo.
922
01:18:51,570 --> 01:18:54,160
- Generado por computadora
videos conocidos como deep fakes
923
01:18:54,160 --> 01:18:57,980
se utilizan para poner a las mujeres
caras en videos pornográficos.
924
01:19:02,510 --> 01:19:06,450
- Inteligencia artificial
evoluciona a un ritmo muy loco.
925
01:19:07,970 --> 01:19:10,180
Sabes, es como progresar tan rápido.
926
01:19:10,180 --> 01:19:12,940
De alguna manera, somos solo
al principio ahora mismo.
927
01:19:14,490 --> 01:19:17,620
Tienes tanto potencial
aplicaciones, es una mina de oro.
928
01:19:19,590 --> 01:19:23,450
Desde 2012, cuando el aprendizaje profundo
se convirtió en un gran cambio de juego
929
01:19:23,450 --> 01:19:25,370
en la comunidad de visión artificial,
930
01:19:25,370 --> 01:19:28,730
fuimos uno de los primeros en
realmente adoptar el aprendizaje profundo
931
01:19:28,730 --> 01:19:31,080
y aplicarlo en el campo
de gráficos por computadora.
932
01:19:34,640 --> 01:19:39,800
Gran parte de nuestra investigación está financiada por
gobierno, agencias de inteligencia militar.
933
01:19:43,950 --> 01:19:47,840
La forma en que creamos estos mapeos fotorrealistas,
934
01:19:47,840 --> 01:19:50,300
generalmente la forma en que funciona es
que necesitamos dos sujetos,
935
01:19:50,300 --> 01:19:53,740
una fuente y un objetivo, y
Puedo hacer un reemplazo de cara.
936
01:19:58,880 --> 01:20:03,700
Una de las aplicaciones es, por ejemplo,
Quiero manipular la cara de alguien
937
01:20:03,700 --> 01:20:05,450
diciendo cosas que no hizo.
938
01:20:08,920 --> 01:20:12,140
Se puede utilizar para creativos
cosas, para contenidos divertidos,
939
01:20:12,140 --> 01:20:16,110
pero obviamente, también puede
ser utilizado para simplemente
940
01:20:16,110 --> 01:20:18,660
manipular videos y generar noticias falsas.
941
01:20:21,050 --> 01:20:23,340
Esto puede resultar muy peligroso.
942
01:20:24,790 --> 01:20:29,300
Si llega a las manos equivocadas,
puede salirse de control muy rápidamente.
943
01:20:33,370 --> 01:20:35,750
- Estamos entrando en una era
en el que nuestros enemigos pueden
944
01:20:35,750 --> 01:20:39,590
haz que parezca que alguien es
decir cualquier cosa en cualquier momento,
945
01:20:39,590 --> 01:20:41,830
incluso si lo hicieran
nunca digas esas cosas.
946
01:20:42,450 --> 01:20:46,970
De cara al futuro, necesitamos ser más
vigilantes con lo que confiamos en Internet.
947
01:20:46,970 --> 01:20:50,710
Puede parecer básico, pero ¿cómo
avanzamos
948
01:20:50,710 --> 01:20:55,180
en la era de la información
va a ser la diferencia
949
01:20:55,180 --> 01:20:58,160
entre si sobrevivimos
o si nos convertimos
950
01:20:58,160 --> 01:21:00,270
una especie de distopía jodida.
951
01:22:31,070 --> 01:22:37,337
- Una crítica que se plantea con frecuencia.
en contra de mi trabajo es decir eso,
952
01:22:37,337 --> 01:22:43,610
"Oye, sabes que hubo ideas estúpidas
en el pasado como frenología o fisonomía.-
953
01:22:45,110 --> 01:22:49,210
- "Había gente reclamando
que puedes leer un personaje
954
01:22:49,210 --> 01:22:52,010
"de una persona solo por su rostro".
955
01:22:53,820 --> 01:22:56,050
La gente decía: "Esto es una tontería.
956
01:22:56,050 --> 01:23:01,050
"Sabemos que fue apenas
racismo y superstición velados ".
957
01:23:05,300 --> 01:23:09,650
Pero el hecho de que alguien
hizo un reclamo en el pasado
958
01:23:09,650 --> 01:23:14,650
y traté de apoyar esto
reclamo con razonamiento inválido,
959
01:23:14,960 --> 01:23:18,970
no automáticamente
invalidar la reclamación.
960
01:23:23,790 --> 01:23:25,710
Por supuesto, la gente debería tener derechos
961
01:23:25,710 --> 01:23:31,020
a su privacidad cuando se trata de
orientación sexual u opiniones políticas,
962
01:23:32,310 --> 01:23:35,600
pero también me temo que en
el entorno tecnológico actual,
963
01:23:35,600 --> 01:23:38,220
esto es esencialmente imposible.
964
01:23:42,640 --> 01:23:44,910
La gente debería darse cuenta
no hay vuelta atrás.
965
01:23:44,910 --> 01:23:48,330
No hay huida
de los algoritmos.
966
01:23:51,120 --> 01:23:55,670
Cuanto antes aceptemos el
verdad inevitable e inconveniente
967
01:23:56,540 --> 01:23:59,430
que la privacidad se ha ido,
968
01:24:01,770 --> 01:24:05,380
cuanto antes podamos realmente
empezar a pensar en
969
01:24:05,380 --> 01:24:07,440
Cómo hacer
seguro que nuestras sociedades
970
01:24:07,440 --> 01:24:11,660
están listos para la era posterior a la privacidad.
971
01:24:35,080 --> 01:24:37,610
- Al hablar de reconocimiento facial,
972
01:24:37,610 --> 01:24:43,700
en mis pensamientos profundos, a veces llego a
la era muy oscura de nuestra historia.
973
01:24:45,490 --> 01:24:49,020
Cuando la gente tuvo que vivir en el sistema,
974
01:24:49,020 --> 01:24:52,660
donde alguna parte de la sociedad fue aceptada
975
01:24:53,680 --> 01:24:56,900
y una parte de la sociedad
fue acusado de muerte.
976
01:25:01,670 --> 01:25:06,180
¿Qué haría Mengele para tener
tal instrumento en sus manos?
977
01:25:10,740 --> 01:25:14,390
Sería muy rápido y
eficiente para la selección
978
01:25:18,390 --> 01:25:22,100
y esta es la visión apocalíptica.
979
01:26:15,880 --> 01:26:19,870
- Entonces, en un futuro cercano,
toda la historia de ti
980
01:26:19,870 --> 01:26:25,340
existirá en una amplia gama de
bases de datos conectadas de rostros,
981
01:26:25,750 --> 01:26:28,390
genomas, comportamientos y emociones.
982
01:26:30,950 --> 01:26:35,320
Entonces, tendrás un digital
avatar de ti mismo en línea,
983
01:26:35,320 --> 01:26:39,510
que registra lo bien que
estamos haciendo como ciudadano,
984
01:26:39,510 --> 01:26:41,910
qué tipo de relación tienes,
985
01:26:41,910 --> 01:26:45,890
que tipo de orientación política
y orientación sexual.
986
01:26:50,020 --> 01:26:54,120
Basado en todos esos datos,
esos algoritmos podrán
987
01:26:54,120 --> 01:26:58,390
manipular tu comportamiento
con extrema precisión,
988
01:26:58,390 --> 01:27:03,890
cambiando nuestra forma de pensar y
probablemente en el futuro, cómo nos sentimos.
989
01:27:25,660 --> 01:27:30,510
- Las creencias y deseos del
Los primeros AGI serán extremadamente importantes.
990
01:27:32,730 --> 01:27:35,180
Entonces, es importante
programarlos correctamente.
991
01:27:36,200 --> 01:27:37,850
Creo que si esto no se hace
992
01:27:38,810 --> 01:27:44,190
entonces la naturaleza de la evolución
de la selección natural favorecerá
993
01:27:44,190 --> 01:27:48,340
esos sistemas, priorizar sus
propia supervivencia por encima de todo.
994
01:27:51,860 --> 01:27:56,660
No es que vaya a activamente
Odio a los humanos y quiero hacerles daño,
995
01:27:58,780 --> 01:28:01,100
pero es solo
va a ser demasiado poderoso
996
01:28:01,400 --> 01:28:05,470
y creo que una buena analogía sería
la forma en que los humanos tratan a los animales.
997
01:28:06,970 --> 01:28:08,200
No es que odiemos a los animales.
998
01:28:08,260 --> 01:28:11,930
Creo que los humanos aman a los animales
y tener mucho cariño por ellos,
999
01:28:12,340 --> 01:28:17,610
pero cuando llegue el momento de
construye una carretera entre dos ciudades,
1000
01:28:17,610 --> 01:28:20,130
no estamos preguntando
los animales por permiso.
1001
01:28:20,130 --> 01:28:23,340
Solo lo hacemos porque
es importante para nosotros.
1002
01:28:24,250 --> 01:28:29,010
Y creo que, por defecto, ese es el tipo de
relación que va a haber entre nosotros
1003
01:28:29,010 --> 01:28:34,700
y AGI que son verdaderamente autónomos
y operando en su propio nombre.
1004
01:28:47,190 --> 01:28:51,400
Si tienes una carrera armamentista
dinámica entre varios reyes
1005
01:28:51,400 --> 01:28:54,140
tratando de construir el AGI primero,
1006
01:28:54,140 --> 01:28:58,000
tendrán menos tiempo para asegurarse
que el AGI que construyen
1007
01:28:58,970 --> 01:29:00,520
se preocupará profundamente por los humanos.
1008
01:29:03,530 --> 01:29:06,540
Porque de la forma en que lo imagino
es que hay una avalancha,
1009
01:29:06,540 --> 01:29:09,220
hay una avalancha
del desarrollo de AGI.
1010
01:29:09,220 --> 01:29:12,300
Imagínese que es una enorme fuerza imparable.
1011
01:29:15,780 --> 01:29:18,740
Y creo que es bastante probable
toda la superficie del
1012
01:29:18,740 --> 01:29:22,070
la tierra estaría cubierta con
paneles solares y centros de datos.
1013
01:29:26,230 --> 01:29:28,700
Dado este tipo de preocupaciones,
1014
01:29:28,700 --> 01:29:32,830
será importante que
el AGI está construido de alguna manera
1015
01:29:32,830 --> 01:29:35,570
como una cooperación
con varios países.
1016
01:29:38,060 --> 01:29:41,180
El futuro va a ser
bueno para las IA, independientemente.
1017
01:29:42,130 --> 01:29:45,020
Sería bueno si pudiera
ser bueno para los humanos también.
1018
01:30:06,750 --> 01:30:10,580
- Hay mucha responsabilidad
pesando sobre mis hombros?
1019
01:30:10,580 --> 01:30:11,800
Realmente no.
1020
01:30:13,420 --> 01:30:16,740
¿Hubo mucho
responsabilidad sobre los hombros
1021
01:30:16,740 --> 01:30:19,100
de los padres de Einstein?
1022
01:30:20,190 --> 01:30:21,780
Los padres de alguna manera lo hicieron,
1023
01:30:21,780 --> 01:30:25,450
pero no tenían forma de
prediciendo lo que haría,
1024
01:30:25,450 --> 01:30:27,300
y cómo cambiaría el mundo.
1025
01:30:28,580 --> 01:30:32,540
Y entonces, realmente no puedes sostener
ellos responsables de eso.
1026
01:30:57,640 --> 01:31:00,240
Entonces, no soy una persona muy centrada en los humanos.
1027
01:31:01,840 --> 01:31:05,500
Creo que estoy dando un pequeño paso
piedra en la evolución
1028
01:31:05,500 --> 01:31:08,060
del Universo hacia una mayor complejidad.
1029
01:31:10,820 --> 01:31:14,860
Pero también tengo claro que
No soy la corona de la creacion
1030
01:31:14,860 --> 01:31:19,320
y que la humanidad en su conjunto
no es la corona de la creación,
1031
01:31:21,140 --> 01:31:26,290
pero estamos preparando el escenario para algo
que es más grande que nosotros que nos trasciende.
1032
01:31:28,980 --> 01:31:32,780
Y luego saldrá de alguna manera
donde los humanos no pueden seguir
1033
01:31:32,780 --> 01:31:37,940
y transformar todo el Universo,
o al menos, el Universo alcanzable.
1034
01:31:41,520 --> 01:31:46,520
Entonces, encuentro belleza y asombro al verme a mí mismo
1035
01:31:46,640 --> 01:31:50,260
como parte de este tema mucho más grandioso.
1036
01:32:14,070 --> 01:32:16,030
- La IA es inevitable.
1037
01:32:17,560 --> 01:32:23,370
Necesitamos asegurarnos de tener
la necesaria regulación humana
1038
01:32:23,370 --> 01:32:27,940
para prevenir el armamentismo
de inteligencia artificial.
1039
01:32:28,690 --> 01:32:32,000
No necesitamos más armas
1040
01:32:32,000 --> 01:32:33,960
de una herramienta tan poderosa.
1041
01:32:37,100 --> 01:32:41,960
- Una de las cosas más críticas, creo,
es la necesidad de gobernanza internacional.
1042
01:32:43,920 --> 01:32:46,310
Tenemos un desequilibrio de
poder aquí porque ahora
1043
01:32:46,310 --> 01:32:49,140
tenemos corporaciones con
más poder, poder y habilidad,
1044
01:32:49,140 --> 01:32:51,100
que países enteros.
1045
01:32:51,100 --> 01:32:54,050
¿Cómo nos aseguramos de que la gente
¿Se escuchan voces?
1046
01:32:58,030 --> 01:32:59,930
- No puede ser una zona libre de leyes.
1047
01:32:59,930 --> 01:33:02,100
No puede ser una zona libre de derechos.
1048
01:33:02,100 --> 01:33:05,870
No podemos abrazar todos estos
maravillosas nuevas tecnologías
1049
01:33:05,870 --> 01:33:10,380
para el siglo XXI sin
tratando de traer con nosotros
1050
01:33:10,380 --> 01:33:15,380
el paquete de derechos humanos
que luchamos tan duro
1051
01:33:15,640 --> 01:33:19,190
lograr, y eso sigue siendo tan frágil.
1052
01:33:28,680 --> 01:33:32,180
- La IA no es buena y tampoco es mala.
1053
01:33:32,180 --> 01:33:36,890
Solo va a amplificar los deseos
y metas de quien lo controla.
1054
01:33:36,890 --> 01:33:41,240
Y la IA de hoy está bajo el control de
un grupo muy, muy pequeño de personas.
1055
01:33:44,430 --> 01:33:49,260
La pregunta más importante que los humanos
tenemos que preguntarnos en este momento de la historia
1056
01:33:49,260 --> 01:33:51,380
no requiere conocimientos técnicos.
1057
01:33:51,590 --> 01:33:57,540
Es la pregunta de que tipo
de la sociedad futura que queremos crear
1058
01:33:57,540 --> 01:33:59,740
con todo esto
tecnología que estamos haciendo?
1059
01:34:01,410 --> 01:34:05,110
¿Qué queremos el papel de
humanos para estar en este mundo?
93360
Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.