All language subtitles for IHuman.2019.720p.WEBRip.x264.AAC-[YTS.MX]-es

af Afrikaans
sq Albanian
am Amharic
ar Arabic
hy Armenian
az Azerbaijani
eu Basque
be Belarusian
bn Bengali
bs Bosnian
bg Bulgarian
ca Catalan
ceb Cebuano
ny Chichewa
zh-CN Chinese (Simplified)
zh-TW Chinese (Traditional)
co Corsican
hr Croatian
cs Czech
da Danish
nl Dutch
en English
eo Esperanto
et Estonian
tl Filipino
fi Finnish
fr French
fy Frisian
gl Galician
ka Georgian
de German
el Greek
gu Gujarati
ht Haitian Creole
ha Hausa
haw Hawaiian
iw Hebrew
hi Hindi
hmn Hmong
hu Hungarian
is Icelandic
ig Igbo
id Indonesian
ga Irish
it Italian
ja Japanese
jw Javanese
kn Kannada
kk Kazakh
km Khmer
ko Korean
ku Kurdish (Kurmanji)
ky Kyrgyz
lo Lao
la Latin
lv Latvian
lt Lithuanian
lb Luxembourgish
mk Macedonian
mg Malagasy
ms Malay
ml Malayalam
mt Maltese
mi Maori
mr Marathi
mn Mongolian
my Myanmar (Burmese)
ne Nepali
no Norwegian
ps Pashto
fa Persian
pl Polish
pt Portuguese Download
pa Punjabi
ro Romanian
ru Russian
sm Samoan
gd Scots Gaelic
sr Serbian
st Sesotho
sn Shona
sd Sindhi
si Sinhala
sk Slovak
sl Slovenian
so Somali
es Spanish Download
su Sundanese
sw Swahili
sv Swedish
tg Tajik
ta Tamil
te Telugu
th Thai
tr Turkish
uk Ukrainian
ur Urdu
uz Uzbek
vi Vietnamese
cy Welsh
xh Xhosa
yi Yiddish
yo Yoruba
zu Zulu
or Odia (Oriya)
rw Kinyarwanda
tk Turkmen
tt Tatar
ug Uyghur
Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated: 1 00:00:02,000 --> 00:00:07,000 Descargado de YTS.MX 2 00:00:08,000 --> 00:00:13,000 Sitio oficial de películas de YIFY: YTS.MX 3 00:00:25,020 --> 00:00:28,000 - La inteligencia es la capacidad de comprender. 4 00:00:28,000 --> 00:00:30,220 Transmitimos lo que sabemos a las máquinas. 5 00:00:30,220 --> 00:00:31,760 - El aumento de inteligencia artificial 6 00:00:31,760 --> 00:00:34,210 está sucediendo rápido, pero algunos temer a la nueva tecnología 7 00:00:34,210 --> 00:00:36,960 puede tener más problemas de los previstos. 8 00:00:36,960 --> 00:00:38,510 - No lo controlaremos. 9 00:01:37,720 --> 00:01:40,290 - Artificialmente los algoritmos inteligentes están aquí, 10 00:01:40,290 --> 00:01:41,930 Pero esto es sólo el comienzo. 11 00:01:51,380 --> 00:01:54,850 - En la era de la IA, Los datos son el nuevo aceite. 12 00:01:57,180 --> 00:01:59,230 - Hoy, Amazon, Google y Facebook 13 00:01:59,230 --> 00:02:01,440 son más ricos y más poderoso que cualquier empresa 14 00:02:01,440 --> 00:02:03,840 que alguna vez ha existido a lo largo de la historia humana. 15 00:02:05,000 --> 00:02:08,690 - Un puñado de personas que trabajan en un puñado de empresas de tecnología 16 00:02:08,690 --> 00:02:11,360 conducir qué mil millones la gente piensa hoy. 17 00:02:12,710 --> 00:02:16,840 - Esta tecnología está cambiando: ¿Qué significa ser humano? 18 00:03:11,870 --> 00:03:16,340 - La inteligencia artificial es simplemente inteligencia no biológica. 19 00:03:17,310 --> 00:03:20,910 Y la inteligencia misma es simplemente la capacidad de lograr metas. 20 00:03:23,440 --> 00:03:26,030 Estoy convencido de que la IA será finalmente o 21 00:03:26,030 --> 00:03:29,780 lo mejor que le ha pasado a la humanidad, o lo peor que haya pasado. 22 00:03:31,240 --> 00:03:34,930 Podemos usarlo para resolver todos de hoy y de mañana 23 00:03:34,930 --> 00:03:40,620 mayores problemas; curar enfermedades, lidiar con el cambio climático, 24 00:03:40,780 --> 00:03:42,840 sacar a todos de la pobreza. 25 00:03:44,380 --> 00:03:47,460 Pero, podríamos usar exactamente la misma tecnología 26 00:03:47,460 --> 00:03:51,780 para crear un brutal global dictadura sin precedentes 27 00:03:51,780 --> 00:03:54,600 vigilancia y desigualdad y sufrimiento. 28 00:03:56,230 --> 00:03:59,260 Por eso esta es la mas importante conversación de nuestro tiempo. 29 00:04:04,380 --> 00:04:07,590 - La inteligencia artificial está en todas partes 30 00:04:08,450 --> 00:04:11,500 porque ahora tenemos máquinas pensantes. 31 00:04:12,420 --> 00:04:15,840 Si va a las redes sociales o en línea, 32 00:04:15,840 --> 00:04:20,290 hay un motor de inteligencia artificial que decide qué recomendar. 33 00:04:21,290 --> 00:04:25,400 Si vas a Facebook y solo estás desplazarse por las publicaciones de sus amigos, - 34 00:04:25,400 --> 00:04:29,100 hay un motor de IA que está seleccionando cual mostrarte primero 35 00:04:29,100 --> 00:04:30,840 - y cuál enterrar. 36 00:04:30,840 --> 00:04:34,190 Si intenta obtener un seguro, hay un motor de IA 37 00:04:34,190 --> 00:04:36,270 tratando de averiguar qué tan arriesgado eres. 38 00:04:37,170 --> 00:04:40,710 Y si solicita un trabajo, es bastante posible 39 00:04:40,710 --> 00:04:43,430 que un motor de inteligencia artificial mira el currículum. 40 00:04:51,350 --> 00:04:53,500 - Estamos hechos de datos. 41 00:04:54,240 --> 00:04:59,520 Cada uno de nosotros está hecho de datos -en términos de cómo nos comportamos, 42 00:04:59,770 --> 00:05:03,000 como hablamos, como amamos, lo que hacemos todos los días. 43 00:05:05,410 --> 00:05:09,120 Entonces, los científicos de la computación desarrollando aprendizaje profundo 44 00:05:09,120 --> 00:05:14,120 algoritmos que pueden aprender identificar, clasificar, 45 00:05:14,570 --> 00:05:18,680 y predecir patrones dentro cantidades masivas de datos. 46 00:05:31,390 --> 00:05:35,190 Estamos ante una forma de vigilancia de precisión, 47 00:05:35,190 --> 00:05:38,750 podría llamarlo vigilancia algorítmica, 48 00:05:38,750 --> 00:05:41,810 y significa que tu no puede pasar desapercibido. 49 00:05:43,120 --> 00:05:46,110 Siempre estás debajo el reloj de los algoritmos. 50 00:05:51,070 --> 00:05:54,380 - Casi toda la IA desarrollo en el planeta hoy 51 00:05:54,380 --> 00:05:57,050 se hace con un puñado de grandes empresas tecnológicas 52 00:05:57,050 --> 00:05:58,770 o por algunos grandes gobiernos. 53 00:06:01,930 --> 00:06:06,170 Si miramos lo que es la IA principalmente desarrollado para, 54 00:06:06,170 --> 00:06:11,170 Yo diria que esta matando espionaje y lavado de cerebro. 55 00:06:11,570 --> 00:06:13,730 Entonces, quiero decir, tenemos IA militar, 56 00:06:13,730 --> 00:06:16,850 tenemos toda una vigilancia aparato en construcción 57 00:06:16,850 --> 00:06:19,060 el uso de IA por parte de los principales gobiernos, 58 00:06:19,060 --> 00:06:21,730 y tenemos una publicidad industria que esta orientada 59 00:06:21,730 --> 00:06:25,870 hacia el reconocimiento de qué anuncios para intentar venderle a alguien. 60 00:06:29,080 --> 00:06:32,090 - Los humanos hemos llegado a una bifurcación en el camino ahora. 61 00:06:33,530 --> 00:06:36,670 La IA que tenemos hoy es muy limitada. 62 00:06:37,820 --> 00:06:40,550 El santo grial de la investigación de la IA desde el principio 63 00:06:40,550 --> 00:06:43,300 es hacer una IA que pueda hacer todo mejor que nosotros, 64 00:06:44,660 --> 00:06:46,280 y básicamente hemos construido un Dios. 65 00:06:47,640 --> 00:06:49,930 Va a revolucionar La vida tal como la conocemos. 66 00:06:53,040 --> 00:06:55,760 Es increiblemente importante dar un paso atrás 67 00:06:55,760 --> 00:06:57,660 y piense detenidamente en esto. 68 00:06:59,380 --> 00:07:01,510 ¿Qué tipo de sociedad queremos? 69 00:07:04,760 --> 00:07:07,430 - Entonces, estamos en esto transformación histórica. 70 00:07:08,890 --> 00:07:11,260 Como si estuviéramos criando a esta nueva criatura. 71 00:07:11,260 --> 00:07:14,230 Tenemos una especie de nueva descendencia. 72 00:07:16,120 --> 00:07:19,630 Pero al igual que la descendencia real, 73 00:07:19,630 --> 00:07:22,990 no puedes controlar todo lo que va a hacer. 74 00:07:57,000 --> 00:08:00,300 Estamos viviendo en este momento privilegiado donde, 75 00:08:00,300 --> 00:08:05,270 por primera vez, nosotros probablemente verá que la IA 76 00:08:05,270 --> 00:08:08,860 realmente va a competir humanos en muchos, muchos, 77 00:08:08,860 --> 00:08:10,460 si no todos, campos importantes. 78 00:08:14,300 --> 00:08:16,450 - Todo va a cambiar. 79 00:08:16,450 --> 00:08:19,520 Está surgiendo una nueva forma de vida. 80 00:08:45,000 --> 00:08:50,900 Cuando era niño, pensaba ¿Cómo puedo maximizar mi impacto? 81 00:08:52,050 --> 00:08:56,270 Y luego quedó claro que Tengo que construir algo 82 00:08:56,270 --> 00:09:00,050 que aprende a ser más inteligente que yo, 83 00:09:00,050 --> 00:09:01,680 para que pueda retirarme, 84 00:09:01,680 --> 00:09:04,480 y lo mas inteligente puede mejorar aún más 85 00:09:04,480 --> 00:09:06,950 y resolver todos los problemas que no puedo resolver. 86 00:09:11,180 --> 00:09:14,520 Multiplicando ese diminuto un poco de creatividad 87 00:09:14,520 --> 00:09:16,370 que tengo hasta el infinito, 88 00:09:18,270 --> 00:09:20,780 y eso es lo que ha sido conduciéndome desde entonces. 89 00:09:39,220 --> 00:09:40,680 Como estoy tratando de construir 90 00:09:40,680 --> 00:09:43,320 una inteligencia artificial de propósito general? 91 00:09:45,540 --> 00:09:49,690 Si quieres ser inteligente tienes que reconocer el habla, 92 00:09:49,690 --> 00:09:54,550 video y escritura a mano, y caras, y todo tipo de cosas, 93 00:09:54,550 --> 00:09:57,550 y ahí hemos avanzado mucho. 94 00:09:59,290 --> 00:10:02,010 Ver, LSTM, redes neuronales, 95 00:10:02,010 --> 00:10:05,890 que desarrollamos en nuestros laboratorios en Munich y en Suiza, 96 00:10:05,890 --> 00:10:10,460 y ahora se usa para hablar reconocimiento y traducción, 97 00:10:10,460 --> 00:10:12,640 y reconocimiento de video. 98 00:10:12,640 --> 00:10:16,660 Ahora están en el de todos smartphone, casi mil millones 99 00:10:16,660 --> 00:10:20,660 iPhones y más dos mil millones de teléfonos Android. 100 00:10:21,990 --> 00:10:26,990 Entonces, estamos generando todos tipos de subproductos útiles 101 00:10:27,490 --> 00:10:29,040 camino a la meta general. 102 00:10:40,000 --> 00:10:44,990 El objetivo principal, algo artificial Inteligencia general, 103 00:10:44,990 --> 00:10:51,400 un AGI que puede aprender a mejorar el propio algoritmo de aprendizaje. 104 00:10:52,960 --> 00:10:56,940 Entonces, básicamente puede aprender para mejorar la forma en que aprende 105 00:10:56,940 --> 00:11:00,940 y también puede recursivamente mejorar la forma en que aprende, 106 00:11:00,940 --> 00:11:04,460 la forma en que aprende sin cualquier limitación excepto por 107 00:11:04,460 --> 00:11:07,970 lo básico fundamental limitaciones de computabilidad. 108 00:11:14,590 --> 00:11:17,880 Uno de mis favoritos robots es este de aquí. 109 00:11:17,880 --> 00:11:21,380 Usamos este robot para nuestro estudios de curiosidad artificial. 110 00:11:22,640 --> 00:11:27,620 Donde estamos tratando de enseñar este robot para aprender a sí mismo. 111 00:11:32,870 --> 00:11:33,960 ¿Qué está haciendo un bebé? 112 00:11:33,960 --> 00:11:37,820 Un bebé explora con curiosidad su mundo. 113 00:11:39,970 --> 00:11:42,210 Así es como aprende cómo funciona la gravedad. 114 00:11:42,210 --> 00:11:45,130 y cómo se derrumban ciertas cosas, etc. 115 00:11:46,700 --> 00:11:49,980 Y mientras aprende a preguntar preguntas sobre el mundo, 116 00:11:49,980 --> 00:11:52,640 y a medida que aprende a responde estas preguntas, 117 00:11:52,640 --> 00:11:55,500 se vuelve cada vez mas solucionador de problemas generales. 118 00:11:56,540 --> 00:11:59,160 Y entonces, nuestro artificial los sistemas también están aprendiendo 119 00:11:59,160 --> 00:12:03,320 pedir todo tipo de preguntas, no solo servilmente 120 00:12:03,320 --> 00:12:07,010 intenta responder las preguntas dado a ellos por los humanos. 121 00:12:10,880 --> 00:12:14,920 Tienes que darle libertad a la IA para inventar sus propias tareas. 122 00:12:17,830 --> 00:12:20,610 Si no haces eso, no es va a volverse muy inteligente. 123 00:12:22,160 --> 00:12:26,780 Por otro lado, es muy difícil para predecir lo que van a hacer. 124 00:12:49,560 --> 00:12:52,910 - siento esa tecnología es una fuerza de la naturaleza. 125 00:12:55,420 --> 00:13:00,020 Siento que hay mucha similitud entre tecnología y evolución biológica. 126 00:13:08,850 --> 00:13:10,140 Jugar a ser Dios. 127 00:13:13,470 --> 00:13:16,500 Los científicos han sido acusados de jugar a ser Dios por un tiempo, 128 00:13:17,960 --> 00:13:22,410 - pero hay un sentido real en que estamos creando algo 129 00:13:23,380 --> 00:13:26,250 muy diferente a cualquier cosa que hemos creado hasta ahora. 130 00:13:49,790 --> 00:13:53,250 Estaba interesado en el concepto de IA desde una edad relativamente temprana. 131 00:13:55,080 --> 00:13:58,420 En algún momento, obtuve especialmente interesado en el aprendizaje automático. 132 00:14:01,690 --> 00:14:03,520 ¿Qué es la experiencia? 133 00:14:03,520 --> 00:14:04,710 ¿Qué es aprender? 134 00:14:04,710 --> 00:14:05,720 ¿Qué está pensando? 135 00:14:06,890 --> 00:14:08,150 ¿Cómo trabaja el cerebro? 136 00:14:10,140 --> 00:14:11,940 Estas preguntas son filosóficas, 137 00:14:11,940 --> 00:14:15,190 pero parece que podemos idear algoritmos que 138 00:14:15,190 --> 00:14:18,530 ambos hacen cosas útiles y ayudan respondamos estas preguntas. 139 00:14:20,000 --> 00:14:22,250 Como si fuera casi una filosofía aplicada. 140 00:14:48,060 --> 00:14:51,410 Inteligencia General Artificial, AGI. 141 00:14:52,610 --> 00:14:57,210 Un sistema informático que puede hacer cualquier trabajo o tarea 142 00:14:57,210 --> 00:15:00,380 que hace un humano, pero solo mejor. 143 00:15:13,180 --> 00:15:15,810 Sí, quiero decir, definitivamente será capaz de crear 144 00:15:17,340 --> 00:15:20,150 completamente autónomo seres con sus propias metas. 145 00:15:24,060 --> 00:15:25,630 Y será muy importante, 146 00:15:25,630 --> 00:15:30,440 especialmente porque estos seres ser mucho más inteligente que los humanos, 147 00:15:30,440 --> 00:15:34,720 va a ser importante tener estos seres, 148 00:15:36,220 --> 00:15:39,330 que las metas de estos seres estar alineados con nuestras metas. 149 00:15:42,600 --> 00:15:45,340 Eso es lo que estamos intentando que hacer en OpenAI. 150 00:15:45,340 --> 00:15:49,700 Estar a la vanguardia de la investigación y dirigir la investigación, 151 00:15:49,700 --> 00:15:53,940 dirigir sus condiciones iniciales así que para maximizar la oportunidad 152 00:15:53,940 --> 00:15:56,100 que el futuro será bueno para los humanos. 153 00:16:11,660 --> 00:16:14,370 Ahora, la IA es una gran cosa porque la IA resolverá 154 00:16:14,370 --> 00:16:16,440 todos los problemas que tenemos hoy. 155 00:16:19,080 --> 00:16:22,580 Resolverá el empleo, solucionará la enfermedad, 156 00:16:24,670 --> 00:16:26,560 solucionará la pobreza, 157 00:16:29,000 --> 00:16:31,360 pero también creará nuevos problemas. 158 00:16:34,580 --> 00:16:36,320 Creo que... 159 00:16:40,490 --> 00:16:43,120 El problema de las noticias falsas va a ser mil, 160 00:16:43,120 --> 00:16:44,360 un millón de veces peor. 161 00:16:46,440 --> 00:16:48,820 Los ciberataques se vuelven mucho más extremos. 162 00:16:50,640 --> 00:16:53,470 Tendrás totalmente armas de IA automatizadas. 163 00:16:56,100 --> 00:16:59,980 Creo que la IA tiene el potencial de crear dictaduras infinitamente estables. 164 00:17:05,820 --> 00:17:08,850 Vas a ver dramáticamente sistemas más inteligentes 165 00:17:08,850 --> 00:17:12,620 en 10 o 15 años a partir de ahora, y creo que es muy probable 166 00:17:12,620 --> 00:17:17,120 que esos sistemas tendrán Impacto completamente astronómico en la sociedad. 167 00:17:19,480 --> 00:17:21,160 ¿Se beneficiarán realmente los humanos? 168 00:17:22,860 --> 00:17:24,860 ¿Y quién se beneficiará y quién no? 169 00:17:44,560 --> 00:17:47,660 - En 2012, IBM estimó que 170 00:17:47,660 --> 00:17:52,090 una persona promedio es generando 500 megabytes 171 00:17:52,090 --> 00:17:55,110 de huellas digitales todos los días. 172 00:17:55,110 --> 00:17:57,390 Imagina que querias para respaldar el valor de un día 173 00:17:57,390 --> 00:18:01,260 de datos que la humanidad es dejando atrás, sobre papel. 174 00:18:01,260 --> 00:18:04,370 ¿Qué altura tendrá la pila? de papel que contiene 175 00:18:04,370 --> 00:18:07,820 solo un día de datos que esta produciendo la humanidad? 176 00:18:09,610 --> 00:18:12,670 Es como de la tierra al sol, cuatro veces más. 177 00:18:14,550 --> 00:18:20,340 En 2025, generaremos 62 gigabytes de datos 178 00:18:20,640 --> 00:18:22,380 por persona, por día. 179 00:18:36,970 --> 00:18:42,380 Estamos dejando un montón de huellas digitales mientras pasamos por nuestras vidas. 180 00:18:44,790 --> 00:18:49,380 Proporcionan algoritmos informáticos con una idea bastante clara de quiénes somos, 181 00:18:49,380 --> 00:18:52,280 lo que queremos, lo que estamos haciendo. 182 00:18:56,020 --> 00:18:59,320 En mi trabajo, miré diferentes tipos de huellas digitales. 183 00:18:59,320 --> 00:19:02,650 Miré los me gusta de Facebook, Miré el lenguaje, 184 00:19:02,650 --> 00:19:06,890 registros de tarjetas de crédito, navegación web historias, registros de búsqueda. 185 00:19:07,740 --> 00:19:12,010 y cada vez que encontré que si obtienes suficiente de estos datos, 186 00:19:12,010 --> 00:19:14,370 puede predecir con precisión el comportamiento futuro 187 00:19:14,370 --> 00:19:17,560 y revelar importantes rasgos íntimos. 188 00:19:19,140 --> 00:19:21,270 Esto se puede utilizar de grandes maneras, 189 00:19:21,270 --> 00:19:24,670 pero también se puede utilizar manipular a la gente. 190 00:19:29,910 --> 00:19:33,880 Facebook ofrece información diaria 191 00:19:33,880 --> 00:19:36,460 a dos mil millones de personas o más. 192 00:19:38,750 --> 00:19:42,840 Si cambia ligeramente el funcionamiento del motor de Facebook, 193 00:19:42,840 --> 00:19:46,500 puedes mover las opiniones y de ahí, 194 00:19:46,500 --> 00:19:49,870 los votos de millones de personas. 195 00:19:50,720 --> 00:19:52,680 - ¡Brexit! - ¿Cuándo lo queremos? 196 00:19:52,720 --> 00:19:54,140 - ¡Ahora! 197 00:19:56,070 --> 00:19:58,690 - Un político no sería capaz de entender 198 00:19:58,690 --> 00:20:02,830 cual mensaje cada uno de a sus votantes les gustaría, 199 00:20:02,830 --> 00:20:06,010 pero una computadora puede ver que mensaje politico 200 00:20:06,010 --> 00:20:08,920 sería particularmente convincente para ti. 201 00:20:11,320 --> 00:20:12,640 - Damas y caballeros, 202 00:20:12,640 --> 00:20:16,170 es mi privilegio hablar para ti hoy sobre el poder 203 00:20:16,170 --> 00:20:20,430 de big data y psicografía en el proceso electoral. 204 00:20:20,430 --> 00:20:22,360 - Datos de Cambridge Analytica 205 00:20:22,360 --> 00:20:25,070 cosechado en secreto el informacion personal 206 00:20:25,070 --> 00:20:28,320 de 50 millones de usuarios desprevenidos de Facebook. 207 00:20:28,320 --> 00:20:31,690 ¡ESTADOS UNIDOS! 208 00:20:31,690 --> 00:20:35,500 - La firma de datos contratada por Donald Trump campaña electoral presidencial 209 00:20:35,870 --> 00:20:41,080 utilizó información obtenida en secreto para apuntar directamente a los votantes estadounidenses potenciales. 210 00:20:41,080 --> 00:20:42,940 - Con eso, dicen que pueden predecir 211 00:20:42,940 --> 00:20:46,760 la personalidad de cada uno adulto en los Estados Unidos. 212 00:20:47,470 --> 00:20:49,460 - esta noche estamos escuchando de Cambridge Analytica 213 00:20:49,460 --> 00:20:51,650 denunciante, Christopher Wiley. 214 00:20:51,650 --> 00:20:54,990 - En lo que trabajamos fue programas de recolección de datos 215 00:20:54,990 --> 00:20:59,200 donde extraeríamos datos y ejecutaríamos datos a través de algoritmos que podrían perfilar 216 00:20:59,200 --> 00:21:01,930 sus rasgos de personalidad y otros atributos psicológicos 217 00:21:01,930 --> 00:21:06,580 explotar vulnerabilidades mentales que nuestros algoritmos demostraron que tenían. 218 00:21:15,500 --> 00:21:17,570 - Cambridge Analytica mencionado una vez 219 00:21:17,570 --> 00:21:20,460 o dijo que sus modelos se basaron en mi trabajo, 220 00:21:22,510 --> 00:21:25,140 pero Cambridge Analytica es solo uno de los cientos 221 00:21:25,140 --> 00:21:30,040 de empresas que utilizan tales métodos para apuntar a los votantes. 222 00:21:32,130 --> 00:21:35,760 Sabes, me preguntarían preguntas de periodistas como, 223 00:21:35,760 --> 00:21:37,220 "Entonces, ¿cómo te sientes 224 00:21:38,810 --> 00:21:41,990 "¿Elegir a Trump y apoyar el Brexit?" 225 00:21:41,990 --> 00:21:43,940 ¿Cómo respondes a esa pregunta? 226 00:21:45,400 --> 00:21:51,740 Supongo que tengo que lidiar con ser culpado de todo. 227 00:22:07,700 --> 00:22:12,480 - Cómo empezó la tecnología fue como fuerza democratizadora, 228 00:22:12,480 --> 00:22:15,110 como una fuerza para el bien, como una habilidad para los humanos 229 00:22:15,110 --> 00:22:17,900 para interactuar con cada uno otros sin porteros. 230 00:22:20,210 --> 00:22:25,110 Nunca ha habido un experimento más grande en comunicaciones para la raza humana. 231 00:22:26,330 --> 00:22:29,060 Que pasa cuando todos llega a dar su opinión? 232 00:22:29,780 --> 00:22:31,850 Asumirías que sería para mejor, 233 00:22:31,850 --> 00:22:34,540 que habría más democracia, habría más discusión, 234 00:22:34,540 --> 00:22:37,660 habría más tolerancia, pero lo que pasó es que 235 00:22:37,660 --> 00:22:39,720 estos sistemas han sido secuestrados. 236 00:22:41,300 --> 00:22:43,860 - Defendemos la conexión de todas las personas. 237 00:22:44,960 --> 00:22:46,620 Para una comunidad global. 238 00:22:47,780 --> 00:22:50,500 - Una compania, Facebook, es responsable 239 00:22:50,500 --> 00:22:53,540 para las comunicaciones de gran parte de la raza humana. 240 00:22:55,650 --> 00:22:57,360 Lo mismo pasa con Google. 241 00:22:57,360 --> 00:23:00,540 Todo lo que quieres saber el mundo viene de ellos. 242 00:23:01,540 --> 00:23:05,120 Esta es la economía de la información global 243 00:23:05,120 --> 00:23:07,830 que está controlado por un pequeño grupo de personas. 244 00:23:14,400 --> 00:23:17,920 - Las empresas más ricas del mundo son todas empresas de tecnología. 245 00:23:18,770 --> 00:23:24,500 Google, Apple, Microsoft, Amazon, Facebook. 246 00:23:25,880 --> 00:23:29,040 Es asombroso cómo 247 00:23:29,040 --> 00:23:31,770 en probablemente solo 10 años, 248 00:23:31,770 --> 00:23:34,810 que toda la estructura de poder corporativa 249 00:23:34,810 --> 00:23:39,460 están básicamente en el negocio del comercio de electrones. 250 00:23:41,240 --> 00:23:47,060 Estos pequeños bits y bytes son realmente la nueva moneda. 251 00:23:53,560 --> 00:23:55,800 - La forma en que se monetizan los datos 252 00:23:55,800 --> 00:23:58,820 está sucediendo a nuestro alrededor, incluso si es invisible para nosotros. 253 00:24:00,960 --> 00:24:04,280 Google tiene todas las cantidades de información disponible. 254 00:24:04,280 --> 00:24:07,110 Rastrean a las personas por su ubicación GPS. 255 00:24:07,110 --> 00:24:10,080 Ellos saben exactamente lo que tu el historial de búsqueda ha sido. 256 00:24:10,080 --> 00:24:12,850 Conocen sus preferencias políticas. 257 00:24:12,850 --> 00:24:14,840 Tu historial de búsqueda solo puede decirte 258 00:24:14,840 --> 00:24:17,570 todo sobre un individuo de sus problemas de salud 259 00:24:17,570 --> 00:24:19,480 a sus preferencias sexuales. 260 00:24:19,480 --> 00:24:21,880 Entonces, el alcance de Google es ilimitado. 261 00:24:28,750 --> 00:24:31,620 - Así que hemos visto Google y Facebook. 262 00:24:31,620 --> 00:24:34,150 sube a estos grandes maquinas de vigilancia 263 00:24:35,040 --> 00:24:38,200 y ambos son agentes de publicidad. 264 00:24:38,200 --> 00:24:42,040 Suena muy mundano pero son corredores de publicidad de alta tecnología. 265 00:24:42,910 --> 00:24:46,080 Y la razón por la que son tan rentable es que están usando 266 00:24:46,080 --> 00:24:49,750 inteligencia artificial para procesar todos estos datos sobre ti, 267 00:24:51,560 --> 00:24:54,660 y luego relacionarte con el anunciante 268 00:24:54,660 --> 00:24:59,660 que quiere llegar a la gente como tú, - para cualquier mensaje. 269 00:25:03,000 --> 00:25:07,880 - Uno de los problemas de la tecnología es que ha sido desarrollado para ser adictivo. 270 00:25:07,880 --> 00:25:09,910 La forma en que estas empresas diseña estas cosas 271 00:25:09,910 --> 00:25:12,010 es para atraerlos y comprometerlos. 272 00:25:13,180 --> 00:25:16,820 Quieren volverse esencialmente una máquina tragamonedas de atención. 273 00:25:18,600 --> 00:25:21,770 Entonces siempre estás prestando atención siempre estás conectado a la matriz, 274 00:25:21,770 --> 00:25:23,520 siempre estás comprobando. 275 00:25:26,580 --> 00:25:30,450 - Cuando alguien controla lo que lees, también controlan lo que piensas. 276 00:25:32,180 --> 00:25:34,610 Obtienes más de lo que tienes visto antes y gustado antes, 277 00:25:34,610 --> 00:25:37,890 porque esto da más tráfico y eso da más anuncios, 278 00:25:39,410 --> 00:25:43,160 pero también te encierra en su cámara de eco. 279 00:25:43,160 --> 00:25:46,350 Y esto es lo que lleva a esta polarización que vemos hoy. 280 00:25:46,460 --> 00:25:49,300 ¡Jair Bolsonaro! 281 00:25:49,970 --> 00:25:52,590 - Jair Bolsonaro, La derecha de Brasil 282 00:25:52,590 --> 00:25:56,000 candidato populista a veces comparado con Donald Trump, 283 00:25:56,000 --> 00:25:58,640 ganar la presidencia el domingo noche en ese pais 284 00:25:58,640 --> 00:26:01,840 elección más polarizante en décadas. 285 00:26:01,840 --> 00:26:02,840 - ¡Bolsonaro! 286 00:26:04,160 --> 00:26:09,550 - Qué estamos viendo alrededor del mundo es agitación y polarización y conflicto 287 00:26:10,770 --> 00:26:15,000 que es parcialmente impulsado por algoritmos 288 00:26:15,000 --> 00:26:19,070 eso ha descubierto que extremos políticos, 289 00:26:19,070 --> 00:26:22,180 tribalismo, y una especie de gritando por tu equipo, 290 00:26:22,180 --> 00:26:25,290 y sentirse bien al respecto, es interesante. 291 00:26:30,420 --> 00:26:33,150 - Las redes sociales pueden estar agregando a la atención 292 00:26:33,150 --> 00:26:35,490 a los delitos de odio en todo el mundo. 293 00:26:35,490 --> 00:26:38,120 - Se trata de cómo la gente puede radicalizarse 294 00:26:38,120 --> 00:26:41,740 viviendo en la fiebre pantanos de Internet. 295 00:26:41,740 --> 00:26:45,960 - ¿Es este un momento clave para los gigantes tecnológicos? ¿Están ahora preparados para asumir la responsabilidad? 296 00:26:45,960 --> 00:26:48,840 como editores de lo que que comparten con el mundo? 297 00:26:49,790 --> 00:26:52,750 - Si implementa un potente tecnología potente 298 00:26:52,750 --> 00:26:56,670 a escala, y si estás hablando sobre Google y Facebook, 299 00:26:56,670 --> 00:26:59,530 estas desplegando cosas a escala de miles de millones. 300 00:26:59,530 --> 00:27:02,770 Si tu inteligencia artificial está empujando la polarización, 301 00:27:02,770 --> 00:27:05,090 potencialmente tiene un trastorno global. 302 00:27:05,720 --> 00:27:09,240 ¡Las vidas blancas importan! 303 00:27:09,320 --> 00:27:13,620 ¡Las vidas negras importan! 304 00:28:00,620 --> 00:28:04,040 - Inteligencia General Artificial, AGI. 305 00:28:06,350 --> 00:28:08,320 Imagina a tu amigo más inteligente 306 00:28:09,600 --> 00:28:11,950 con 1000 amigos, igual de inteligente, 307 00:28:14,680 --> 00:28:17,580 y luego ejecutarlos a 1,000 veces más rápido que el tiempo real. 308 00:28:17,580 --> 00:28:19,940 Entonces significa que en todos los días de nuestro tiempo, 309 00:28:19,940 --> 00:28:22,510 harán tres años de pensar. 310 00:28:22,510 --> 00:28:25,520 ¿Te imaginas cuanto podrías hacer? 311 00:28:26,580 --> 00:28:31,480 si por cada día pudieras hacer tres años de trabajo? 312 00:28:52,440 --> 00:28:55,720 No sería una comparación injusta decir 313 00:28:55,720 --> 00:28:59,780 que lo que tenemos ahora mismo es incluso más emocionante que 314 00:28:59,780 --> 00:29:02,510 los físicos cuánticos de principios del siglo XX. 315 00:29:02,510 --> 00:29:04,240 Descubrieron la energía nuclear. 316 00:29:05,740 --> 00:29:08,380 Me siento muy afortunado de participar en esto. 317 00:29:15,310 --> 00:29:18,820 Muchos expertos en aprendizaje automático que tienen mucho conocimiento y experiencia, 318 00:29:18,820 --> 00:29:20,820 tienen mucho escepticismo sobre AGI. 319 00:29:22,350 --> 00:29:25,900 Sobre cuando sucedería y sobre si podría suceder en absoluto. 320 00:29:31,460 --> 00:29:35,740 Pero ahora mismo, esto es algo que no mucha gente se ha dado cuenta todavía. 321 00:29:36,500 --> 00:29:41,240 Que la velocidad de las computadoras, para redes neuronales, para IA, 322 00:29:41,240 --> 00:29:45,240 se van a convertir en tal vez 100,000 veces más rápido 323 00:29:45,240 --> 00:29:46,980 en un pequeño número de años. 324 00:29:49,330 --> 00:29:52,100 Todo el hardware industria durante mucho tiempo 325 00:29:52,100 --> 00:29:54,660 realmente no sabía qué hacer a continuación, 326 00:29:55,660 --> 00:30:00,900 pero con redes neuronales artificiales, ahora que realmente funcionan, 327 00:30:00,900 --> 00:30:03,420 tienes una razón para construir computadoras enormes. 328 00:30:04,530 --> 00:30:06,930 Puedes construir un cerebro en silicio, es posible. 329 00:30:14,450 --> 00:30:18,710 Los primeros AGI será básicamente muy, 330 00:30:18,710 --> 00:30:22,850 centros de datos muy grandes lleno de especialistas 331 00:30:22,850 --> 00:30:25,660 procesadores de redes neuronales trabajando en paralelo. 332 00:30:28,070 --> 00:30:30,920 Paquete compacto, caliente y hambriento de energía, 333 00:30:32,140 --> 00:30:35,540 consumiendo como 10 millones valor de la energía de los hogares. 334 00:30:54,140 --> 00:30:55,640 Un sándwich de rosbif. 335 00:30:55,640 --> 00:30:58,290 Sí, algo ligeramente diferente. 336 00:30:58,290 --> 00:30:59,200 Solo esta vez. 337 00:31:04,060 --> 00:31:06,260 Incluso los primeros AGI 338 00:31:06,260 --> 00:31:09,060 será dramáticamente más capaz que los humanos. 339 00:31:10,970 --> 00:31:14,730 Los humanos ya no serán económicamente útil para casi cualquier tarea. 340 00:31:16,200 --> 00:31:17,880 ¿Por qué querrías contratar a un humano? 341 00:31:17,880 --> 00:31:21,980 si pudieras conseguir una computadora que hacerlo mucho mejor y mucho más barato? 342 00:31:28,900 --> 00:31:31,020 AGI va a ser, sin lugar a dudas, 343 00:31:31,880 --> 00:31:34,660 el más importante tecnología en la historia 344 00:31:34,660 --> 00:31:36,600 del planeta por un gran margen. 345 00:31:39,410 --> 00:31:42,550 Va a ser mas grande que la electricidad, nuclear, 346 00:31:42,550 --> 00:31:44,140 e Internet combinados. 347 00:31:45,740 --> 00:31:47,620 De hecho, podrías decir que todo el propósito 348 00:31:47,620 --> 00:31:49,660 de toda la ciencia humana, el propósito de la informática, 349 00:31:49,660 --> 00:31:52,550 el juego final, este es el End Game, para construir esto. 350 00:31:52,550 --> 00:31:54,130 Y se va a construir. 351 00:31:54,130 --> 00:31:56,000 Va a ser una nueva forma de vida. 352 00:31:56,000 --> 00:31:57,090 Va a ser... 353 00:31:59,190 --> 00:32:00,740 Nos va a volver obsoletos. 354 00:32:22,070 --> 00:32:24,520 - fabricantes europeos conocer a los americanos 355 00:32:24,520 --> 00:32:27,460 han invertido mucho en el hardware necesario. 356 00:32:27,460 --> 00:32:29,780 - Entra en un valiente nuevo mundo de poder, 357 00:32:29,780 --> 00:32:31,630 rendimiento y productividad. 358 00:32:32,360 --> 00:32:35,480 - Todas las imágenes que eres a punto de ver en la pantalla grande 359 00:32:35,480 --> 00:32:39,030 será generado por qué hay en ese Macintosh. 360 00:32:39,760 --> 00:32:42,210 - Es mi honor y privilegio de presentarte 361 00:32:42,210 --> 00:32:44,700 el equipo de desarrollo de Windows 95. 362 00:32:45,640 --> 00:32:49,040 - El trabajo físico humano ha sido en su mayoría obsoleto para 363 00:32:49,040 --> 00:32:50,620 avanzando durante un siglo. 364 00:32:51,390 --> 00:32:55,300 Trabajo mental humano de rutina se está volviendo obsoleto rápidamente 365 00:32:55,300 --> 00:32:58,980 y es por eso que estamos viendo muchos desaparecen los trabajos de la clase media. 366 00:33:01,010 --> 00:33:02,340 - De vez en cuando, 367 00:33:02,340 --> 00:33:06,370 viene un producto revolucionario a lo largo que cambia todo. 368 00:33:06,370 --> 00:33:09,190 Hoy, Apple está reinventando el teléfono. 369 00:33:20,730 --> 00:33:24,270 - Inteligencia de máquina ya está a nuestro alrededor. 370 00:33:24,270 --> 00:33:27,620 La lista de cosas que los humanos puede hacerlo mejor que las máquinas 371 00:33:27,620 --> 00:33:29,600 es en realidad encogiéndose bastante rápido. 372 00:33:35,730 --> 00:33:37,400 - Los autos sin conductor son geniales. 373 00:33:37,400 --> 00:33:40,010 Probablemente reducirán los accidentes. 374 00:33:40,010 --> 00:33:43,670 Excepto, junto con que, en Estados Unidos, 375 00:33:43,670 --> 00:33:46,410 vas a perder 10 millones de puestos de trabajo. 376 00:33:46,480 --> 00:33:49,980 Que vas a hacer con 10 millones de parados? 377 00:33:54,900 --> 00:33:58,660 - El riesgo social conflictos y tensiones, 378 00:33:58,660 --> 00:34:02,080 si agrava las desigualdades, es muy, muy alto. 379 00:34:11,560 --> 00:34:13,870 - AGI puede, por definición, 380 00:34:13,870 --> 00:34:16,700 hacer todos los trabajos mejor que nosotros. 381 00:34:16,700 --> 00:34:18,610 Gente que dice "Oh, siempre habrá trabajos 382 00:34:18,610 --> 00:34:21,120 "que los humanos pueden hacerlo mejor que las máquinas ", son simplemente 383 00:34:21,120 --> 00:34:24,180 apostando contra la ciencia y diciendo que nunca habrá AGI. 384 00:34:30,860 --> 00:34:33,630 - lo que estamos viendo ahora es como un tren corriendo 385 00:34:33,630 --> 00:34:37,880 por un túnel oscuro en velocidad vertiginosa y parece 386 00:34:37,880 --> 00:34:39,660 estamos durmiendo al volante. 387 00:35:29,170 --> 00:35:34,710 - Una gran fracción de las huellas digitales lo que estamos dejando atrás son las imágenes digitales. 388 00:35:35,690 --> 00:35:39,340 Y específicamente, lo que realmente interesante para mi como psicólogo 389 00:35:39,340 --> 00:35:41,470 son imágenes digitales de nuestros rostros. 390 00:35:44,500 --> 00:35:47,260 Aqui puedes ver la diferencia en el contorno facial 391 00:35:47,260 --> 00:35:50,130 de un gay promedio y una cara seria promedio. 392 00:35:50,130 --> 00:35:52,660 Y puedes ver que los hombres heterosexuales 393 00:35:52,660 --> 00:35:55,380 tienen mandíbulas ligeramente más anchas. 394 00:35:55,680 --> 00:36:00,580 Las mujeres gay tienen mandíbulas un poco más grandes en comparación con las mujeres heterosexuales. 395 00:36:02,510 --> 00:36:05,670 Los algoritmos informáticos pueden revelar nuestras opiniones políticas 396 00:36:05,670 --> 00:36:08,280 u orientación sexual, o inteligencia, 397 00:36:08,280 --> 00:36:11,120 basándonos únicamente en la imagen de nuestras caras. 398 00:36:12,070 --> 00:36:16,760 Incluso un cerebro humano puede distinguir entre hombres homosexuales y heterosexuales con cierta precisión. 399 00:36:16,920 --> 00:36:21,700 Ahora resulta que la computadora puede hacerlo con mucha mayor precisión. 400 00:36:21,700 --> 00:36:25,200 Lo que ves aquí es una precisión de 401 00:36:25,200 --> 00:36:29,410 software de reconocimiento facial listo para usar. 402 00:36:29,410 --> 00:36:31,640 Esta es una noticia terrible 403 00:36:31,640 --> 00:36:34,320 para hombres y mujeres homosexuales alrededor del mundo. 404 00:36:34,320 --> 00:36:35,680 Y no solo hombres y mujeres homosexuales, 405 00:36:35,680 --> 00:36:38,300 porque los mismos algoritmos se puede utilizar para detectar otros 406 00:36:38,300 --> 00:36:42,350 rasgos íntimos, piensa ser un miembro de la oposición, 407 00:36:42,350 --> 00:36:45,090 o ser liberal, o ser ateo. 408 00:36:46,850 --> 00:36:50,070 Ser ateo es también punible con la muerte 409 00:36:50,070 --> 00:36:52,610 en Arabia Saudita, por ejemplo. 410 00:36:59,780 --> 00:37:04,440 Mi misión como académico es advertir a la gente sobre los peligros de los algoritmos 411 00:37:04,440 --> 00:37:08,290 pudiendo revelar nuestros rasgos íntimos. 412 00:37:09,780 --> 00:37:14,060 El problema es que cuando la gente recibe malas noticias, 413 00:37:14,060 --> 00:37:16,260 muy a menudo eligen despedirlos. 414 00:37:17,810 --> 00:37:22,250 Bueno, da un poco de miedo cuando empiezas a recibir amenazas de muerte de un día para otro, 415 00:37:22,250 --> 00:37:24,830 y he recibido bastante pocas amenazas de muerte, - 416 00:37:25,910 --> 00:37:30,870 -pero como científico, tengo que básicamente mostrar lo que es posible. 417 00:37:33,590 --> 00:37:36,900 Entonces, lo que realmente me interesa en ahora es para tratar de ver 418 00:37:36,900 --> 00:37:41,080 si podemos predecir otros rasgos de los rostros de las personas. 419 00:37:46,270 --> 00:37:48,580 Ahora, si puedes detectar depresión de una cara, 420 00:37:48,580 --> 00:37:53,580 o pensamientos suicidas, tal vez un sistema de CCTV 421 00:37:53,690 --> 00:37:56,970 en la estación de tren puede salvar algunas vidas. 422 00:37:59,130 --> 00:38:03,830 ¿Y si pudiéramos predecir que alguien ¿Es más propenso a cometer un delito? 423 00:38:04,960 --> 00:38:07,150 Probablemente tuviste un consejero escolar, 424 00:38:07,150 --> 00:38:10,380 un psicólogo contratado allí para identificar a los niños 425 00:38:10,380 --> 00:38:14,830 que potencialmente puede tener algunos problemas de comportamiento. 426 00:38:17,330 --> 00:38:20,080 Así que ahora imagina si pudieras predecir con alta precisión 427 00:38:20,080 --> 00:38:22,590 que es probable que alguien cometer un crimen en el futuro 428 00:38:22,590 --> 00:38:24,780 del uso del lenguaje, del rostro, 429 00:38:24,780 --> 00:38:27,580 de las expresiones faciales, de los me gusta en Facebook. 430 00:38:32,310 --> 00:38:35,210 No me estoy desarrollando nuevo métodos, solo estoy describiendo 431 00:38:35,210 --> 00:38:38,890 algo o probando algo en un entorno académico. 432 00:38:40,590 --> 00:38:42,790 Pero, obviamente, existe la posibilidad de que, 433 00:38:42,790 --> 00:38:47,790 mientras advierte a la gente contra riesgos de las nuevas tecnologías, 434 00:38:47,960 --> 00:38:50,560 También puedo dar a algunas personas nuevas ideas. 435 00:39:11,140 --> 00:39:13,830 - aún no hemos visto el futuro en términos de 436 00:39:13,830 --> 00:39:18,780 las formas en que el nueva sociedad basada en datos 437 00:39:18,780 --> 00:39:21,380 realmente va a evolucionar. 438 00:39:23,540 --> 00:39:26,740 Las empresas tecnológicas quieren para obtener todo lo posible 439 00:39:26,740 --> 00:39:30,170 de información que ellos puede cobrar a todos 440 00:39:30,170 --> 00:39:31,690 para facilitar los negocios. 441 00:39:33,470 --> 00:39:37,090 La policia y el ejercito quiero hacer lo mismo 442 00:39:37,090 --> 00:39:38,830 para facilitar la seguridad. 443 00:39:41,960 --> 00:39:46,440 Los intereses que los dos tienen en común son inmensos, 444 00:39:46,440 --> 00:39:51,220 y así el alcance de la colaboración entre lo que podrías 445 00:39:51,220 --> 00:39:56,820 llamar al complejo de tecnología militar está creciendo de forma espectacular. 446 00:40:00,400 --> 00:40:03,010 - La CIA, durante mucho tiempo, 447 00:40:03,010 --> 00:40:06,120 ha mantenido un cierre conexión con Silicon Valley. 448 00:40:07,110 --> 00:40:10,270 Su capital de riesgo firma conocida como In-Q-Tel, 449 00:40:10,270 --> 00:40:13,870 realiza inversiones iniciales para empresas de nueva creación en desarrollo 450 00:40:13,870 --> 00:40:17,490 tecnología de vanguardia que la CIA espera desplegarse. 451 00:40:18,660 --> 00:40:22,100 Palantir, la firma de análisis de big data, 452 00:40:22,100 --> 00:40:25,100 una de sus primeras semillas las inversiones fueron de In-Q-Tel. 453 00:40:28,950 --> 00:40:31,780 - In-Q-Tel ha encontrado oro en Palantir 454 00:40:31,780 --> 00:40:35,990 para ayudar a crear un proveedor privado 455 00:40:35,990 --> 00:40:40,850 que tiene inteligencia y inteligencia artificial 456 00:40:40,850 --> 00:40:44,460 capacidades que el gobierno ni siquiera puedo competir con. 457 00:40:46,370 --> 00:40:48,720 - Buenas noches, soy Peter Thiel. 458 00:40:49,740 --> 00:40:54,210 No soy un politico, pero tampoco lo es Donald Trump. 459 00:40:54,210 --> 00:40:58,620 Es un constructor y es hora de reconstruir América. 460 00:41:01,280 --> 00:41:03,940 - Peter Thiel, el fundador de Palantir, 461 00:41:03,940 --> 00:41:06,680 fue asesor de transición de Donald Trump 462 00:41:06,680 --> 00:41:09,180 y un amigo cercano y donante. 463 00:41:11,080 --> 00:41:13,700 Trump fue elegido en gran parte por la promesa 464 00:41:13,700 --> 00:41:17,560 deportar a millones de inmigrantes. 465 00:41:17,560 --> 00:41:22,240 La única forma en que puedes hacer eso es con mucha inteligencia 466 00:41:22,240 --> 00:41:25,010 y ahí es donde entra Palantir. 467 00:41:28,680 --> 00:41:33,340 Ellos ingieren enormes tesoros de datos, que incluyen, 468 00:41:33,340 --> 00:41:37,370 donde vives, donde tu trabajas, a quien conoces, 469 00:41:37,370 --> 00:41:40,930 quiénes son tus vecinos, quien es tu familia, 470 00:41:40,930 --> 00:41:44,480 donde has visitado, donde te hospedas, 471 00:41:44,480 --> 00:41:46,320 su perfil de redes sociales. 472 00:41:49,250 --> 00:41:53,240 Palantir obtiene todo eso y es notablemente bueno 473 00:41:53,240 --> 00:41:58,240 en estructurarlo de una manera que ayuda a la aplicación de la ley, 474 00:41:58,460 --> 00:42:02,450 autoridades de inmigracion o agencias de inteligencia 475 00:42:02,450 --> 00:42:06,210 de cualquier tipo, rastrearte, encontrarte, 476 00:42:06,210 --> 00:42:09,550 y aprende todo lo que hay es saber de ti. 477 00:42:48,430 --> 00:42:51,040 - Estamos poniendo IA carga ahora de siempre 478 00:42:51,040 --> 00:42:53,860 decisiones importantes que afectar la vida de las personas. 479 00:42:54,810 --> 00:42:58,050 La IA de la vieja escuela solía tener su inteligencia programada en 480 00:42:58,050 --> 00:43:01,420 por humanos que entendieron cómo funcionó, pero hoy, 481 00:43:01,420 --> 00:43:04,080 potentes sistemas de IA tienen acaban de aprender por sí mismos, 482 00:43:04,080 --> 00:43:07,480 y no tenemos ni idea de cómo funcionan, 483 00:43:07,480 --> 00:43:09,680 lo que hace que sea muy difícil confiar en ellos. 484 00:43:14,270 --> 00:43:17,820 - Esto no es algo futurista. tecnología, esto es ahora. 485 00:43:19,470 --> 00:43:23,220 La IA podría ayudar a determinar donde un departamento de bomberos 486 00:43:23,220 --> 00:43:25,900 está construido en una comunidad o donde se construye una escuela. 487 00:43:25,900 --> 00:43:28,380 Podría decidir si obtienes fianza, 488 00:43:28,380 --> 00:43:30,680 o si permanece en la cárcel. 489 00:43:30,680 --> 00:43:32,930 Podría decidir dónde la policía va a ser. 490 00:43:32,930 --> 00:43:37,140 Podría decidir si vas a ser bajo escrutinio policial adicional. 491 00:43:43,340 --> 00:43:46,140 - Es popular ahora en los EE. UU. para hacer vigilancia policial predictiva. 492 00:43:46,980 --> 00:43:50,900 Entonces, lo que hacen es usar un algoritmo para averiguar dónde estará el crimen, 493 00:43:51,760 --> 00:43:55,240 - y lo usan para decir dónde deberíamos enviar policías. 494 00:43:56,430 --> 00:43:59,420 Entonces eso está basado en un medición de la tasa de criminalidad. 495 00:44:00,640 --> 00:44:02,330 Entonces sabemos que hay sesgo. 496 00:44:02,330 --> 00:44:05,090 Negros e hispanos la gente es detenida, 497 00:44:05,090 --> 00:44:07,180 y detenido por la policía oficiales con más frecuencia 498 00:44:07,180 --> 00:44:09,820 que los blancos, entonces nosotros tienen estos datos sesgados, 499 00:44:09,820 --> 00:44:11,820 y luego que pasa ¿Usas eso para decir? 500 00:44:11,820 --> 00:44:13,640 "Oh, aquí es donde debería ir la policía". 501 00:44:13,640 --> 00:44:17,320 Bueno, la policía va a esos barrios y adivinen lo que hacen, arrestan gente. 502 00:44:17,680 --> 00:44:21,160 Y luego retroalimenta datos sesgados en el sistema, 503 00:44:21,160 --> 00:44:23,060 y eso se llama ciclo de retroalimentación. 504 00:44:35,990 --> 00:44:40,650 - Vigilancia predictiva conduce a los extremos 505 00:44:41,590 --> 00:44:45,910 a los expertos que dicen: "Enséñame a tu bebé, 506 00:44:45,910 --> 00:44:48,860 "y te diré si ella va a ser una criminal ". 507 00:44:51,300 --> 00:44:55,780 Ahora que podemos predecirlo, luego vamos a vigilar 508 00:44:55,780 --> 00:45:01,100 esos niños mucho más de cerca y vamos a saltar sobre ellos 509 00:45:01,100 --> 00:45:03,700 a la primera señal de un problema. 510 00:45:03,700 --> 00:45:06,700 Y eso va a hacer para una vigilancia más eficaz. 511 00:45:07,000 --> 00:45:11,250 Lo hace, pero va a hacer una sociedad realmente sombría 512 00:45:11,250 --> 00:45:16,250 y se refuerza injusticias dramáticamente existentes. 513 00:45:22,960 --> 00:45:27,810 - Imagina un mundo en el que redes de cámaras CCTV, 514 00:45:27,810 --> 00:45:30,930 vigilancia con drones cámaras, tienen sofisticadas 515 00:45:30,930 --> 00:45:34,440 tecnologías de reconocimiento facial y están conectados 516 00:45:34,440 --> 00:45:37,020 a otro gobierno bases de datos de vigilancia. 517 00:45:38,080 --> 00:45:41,190 Tendremos el tecnología en el lugar para tener 518 00:45:41,190 --> 00:45:45,690 todos nuestros movimientos de manera integral rastreado y grabado. 519 00:45:47,680 --> 00:45:50,330 Lo que eso también significa es que tendremos 520 00:45:50,330 --> 00:45:52,940 creó una máquina del tiempo de vigilancia 521 00:45:52,940 --> 00:45:56,620 que permitirá a los gobiernos y corporaciones poderosas 522 00:45:56,620 --> 00:45:58,710 esencialmente, rebobinar nuestras vidas. 523 00:45:58,710 --> 00:46:01,780 Puede que no estemos bajo sospecha ahora 524 00:46:01,780 --> 00:46:03,860 y dentro de cinco años, es posible que quieran saber 525 00:46:03,860 --> 00:46:08,100 más sobre nosotros, y puede luego recrear granularmente 526 00:46:08,100 --> 00:46:10,260 todo lo que hemos hecho todos los que hemos visto, 527 00:46:10,260 --> 00:46:13,050 todos con los que hemos estado durante todo ese período. 528 00:46:15,820 --> 00:46:19,320 Esa es una cantidad extraordinaria de poder 529 00:46:19,320 --> 00:46:21,660 para que podamos sembrar a cualquiera. 530 00:46:22,910 --> 00:46:25,370 Y es un mundo que yo pensar ha sido dificil 531 00:46:25,370 --> 00:46:29,180 para que la gente se imagine, pero ya hemos construido 532 00:46:29,180 --> 00:46:31,660 la arquitectura para permitir eso. 533 00:47:07,140 --> 00:47:10,290 - soy un reportero político y estoy muy interesado 534 00:47:10,290 --> 00:47:14,670 en las formas en que las industrias poderosas usar su poder político 535 00:47:14,670 --> 00:47:17,180 influir en el proceso de políticas públicas. 536 00:47:21,000 --> 00:47:24,420 Las grandes empresas tecnológicas y sus cabilderos se juntan 537 00:47:24,420 --> 00:47:27,530 a puerta cerrada y son capaces de elaborar políticas 538 00:47:27,530 --> 00:47:29,340 que todos tenemos que vivir. 539 00:47:30,790 --> 00:47:35,780 Eso es cierto para las políticas de vigilancia, para las políticas en términos de recopilación de datos, 540 00:47:35,780 --> 00:47:40,540 pero también cada vez más importante cuando llega a la política militar y exterior. 541 00:47:43,930 --> 00:47:50,220 A partir de 2016, el Departamento de Defensa formó la Junta de Innovación de Defensa. 542 00:47:50,220 --> 00:47:54,010 Eso es un cuerpo especial creado para traer altos ejecutivos tecnológicos 543 00:47:54,010 --> 00:47:56,420 en contacto más estrecho con los militares. 544 00:47:59,140 --> 00:48:01,750 Eric Schmidt, ex presidente de Alphabet, 545 00:48:01,750 --> 00:48:03,380 la empresa matriz de Google, 546 00:48:03,380 --> 00:48:07,240 se convirtió en el presidente de la Junta de Innovación de Defensa, 547 00:48:07,240 --> 00:48:09,930 y uno de sus primeros prioridades era decir, 548 00:48:09,930 --> 00:48:13,850 "Necesitamos más inteligencia artificial integrado en el ejército ". 549 00:48:15,930 --> 00:48:19,190 - he trabajado con un grupo de voluntarios en el 550 00:48:19,190 --> 00:48:22,150 últimos años para tomar una mirada a la innovación en el 551 00:48:22,150 --> 00:48:26,780 militar en general, y mi resumen La conclusión es que tenemos 552 00:48:26,780 --> 00:48:30,460 gente fantástica que es atrapado en un sistema muy malo. 553 00:48:33,290 --> 00:48:35,700 - Del Departamento de La perspectiva de la defensa, 554 00:48:35,700 --> 00:48:37,700 donde realmente comencé interesarse en eso 555 00:48:37,700 --> 00:48:40,980 fue cuando empezamos a pensar sobre sistemas no tripulados y 556 00:48:40,980 --> 00:48:45,980 cómo los sistemas robóticos y no tripulados empezaría a cambiar la guerra. 557 00:48:46,160 --> 00:48:50,320 Cuanto más inteligente hiciste el Sistemas y robots no tripulados, 558 00:48:50,320 --> 00:48:53,570 cuanto más poderoso puedas ser capaz de hacer su ejército. 559 00:48:55,540 --> 00:48:57,240 - Subsecretario de Defensa, 560 00:48:57,240 --> 00:49:00,420 Robert Work juntos un memorando importante conocido como 561 00:49:00,420 --> 00:49:03,680 la guerra algorítmica Equipo multidisciplinar, 562 00:49:03,680 --> 00:49:05,540 más conocido como Project Maven. 563 00:49:07,830 --> 00:49:10,760 Eric Schmidt dio una serie de discursos y apariciones en los medios 564 00:49:10,760 --> 00:49:14,310 donde dijo este esfuerzo fue diseñado para aumentar el combustible 565 00:49:14,310 --> 00:49:18,240 eficiencia en la Fuerza Aérea, para ayudar con la logística, 566 00:49:18,240 --> 00:49:21,300 pero a puerta cerrada hay fue otro esfuerzo paralelo. 567 00:49:26,710 --> 00:49:29,760 A finales de 2017 como parte del Proyecto Maven, 568 00:49:29,760 --> 00:49:33,710 Google, la firma de Eric Schmidt, tenía la tarea de trabajar en secreto 569 00:49:33,710 --> 00:49:36,100 en otra parte del Proyecto Maven, 570 00:49:36,100 --> 00:49:41,480 y eso fue para tomar el vasto volúmenes de datos de imágenes aspirados 571 00:49:41,480 --> 00:49:47,060 por drones que operan en Irak y Afganistán y para enseñar una IA 572 00:49:47,060 --> 00:49:49,690 para identificar rápidamente objetivos en el campo de batalla. 573 00:49:52,600 --> 00:49:58,470 - Tenemos un sensor y el sensor puede hacer videos de movimiento completo de una ciudad entera. 574 00:49:58,470 --> 00:50:01,690 Y tendríamos tres equipos de siete personas trabajando 575 00:50:01,690 --> 00:50:06,360 constantemente y podrían procesar el 15% de la información. 576 00:50:06,360 --> 00:50:08,950 El otro 85% de los se acaba de dejar información 577 00:50:08,950 --> 00:50:14,040 en el piso de la sala de despiece, así que dijimos, "Oye, IA y aprendizaje automático 578 00:50:14,040 --> 00:50:17,810 "nos ayudaría a procesar 100% de la información ". 579 00:50:25,380 --> 00:50:28,760 - Google ha tenido durante mucho tiempo el lema, "No seas malvado". 580 00:50:28,760 --> 00:50:30,630 Han creado una imagen pública 581 00:50:30,630 --> 00:50:35,080 que son devotos a la transparencia pública. 582 00:50:35,080 --> 00:50:39,200 Pero para que Google lentamente transformarse en un contratista de defensa, 583 00:50:39,200 --> 00:50:41,720 ellos mantuvieron el mayor secreto. 584 00:50:41,720 --> 00:50:45,280 Y tenías a Google entrando en este contrato con la mayoría de los empleados, 585 00:50:45,280 --> 00:50:49,020 incluso los empleados que estaban trabajando en el programa quedó completamente en la oscuridad. 586 00:51:01,840 --> 00:51:05,050 - Generalmente dentro de Google, cualquiera en la empresa 587 00:51:05,050 --> 00:51:08,100 se le permite saber sobre cualquier otro proyecto que esta pasando 588 00:51:08,100 --> 00:51:09,800 en alguna otra parte de la empresa. 589 00:51:11,180 --> 00:51:14,300 Con Project Maven, el hecho que se mantuvo en secreto, 590 00:51:14,300 --> 00:51:18,740 Creo que fue alarmante para la gente porque esa no es la norma en Google. 591 00:51:20,620 --> 00:51:22,940 - Cuando se reveló esta historia por primera vez, 592 00:51:22,940 --> 00:51:25,540 desató una tormenta de fuego dentro de Google. 593 00:51:25,540 --> 00:51:28,420 Tenías varios empleados renunciar en protestas, 594 00:51:28,420 --> 00:51:31,900 otros firmando una petición objetando este trabajo. 595 00:51:34,130 --> 00:51:37,680 - Tienes que decir realmente, "Ya no quiero ser parte de esto". 596 00:51:38,820 --> 00:51:41,750 Hay empresas llamados contratistas de defensa 597 00:51:41,750 --> 00:51:45,830 y Google simplemente no debería ser una de esas empresas 598 00:51:45,830 --> 00:51:50,040 porque la gente necesita confiar Google para que Google funcione. 599 00:51:52,070 --> 00:51:55,710 - Buenos días y bienvenido a Google I / O. 600 00:51:57,310 --> 00:52:00,160 - Hemos visto correos electrónicos que mostrar que Google simplemente 601 00:52:00,160 --> 00:52:03,350 continuó engañando a sus empleados que el dron 602 00:52:03,350 --> 00:52:07,390 El programa de orientación fue solo un esfuerzo menor que a lo sumo 603 00:52:07,390 --> 00:52:11,170 valdrá $ 9 millones para la empresa, que es gotas en el balde 604 00:52:11,170 --> 00:52:13,540 para una empresa gigantesca como Google. 605 00:52:14,400 --> 00:52:17,300 Pero de los correos electrónicos internos que obtuvimos, 606 00:52:17,300 --> 00:52:21,530 Google esperaba Project Maven aumentaría tanto 607 00:52:21,530 --> 00:52:26,530 como $ 250 millones, y que esto todo el esfuerzo proporcionaría 608 00:52:26,630 --> 00:52:29,900 Google con defensa especial Certificación del departamento para realizar 609 00:52:29,900 --> 00:52:32,660 ellos disponibles para incluso contratos de defensa más grandes, 610 00:52:32,660 --> 00:52:34,980 algunos valen hasta $ 10 mil millones. 611 00:52:45,710 --> 00:52:49,750 La presión para que Google competir por contratos militares 612 00:52:49,750 --> 00:52:53,780 ha llegado en un momento en que sus competidores también están cambiando su cultura. 613 00:52:55,850 --> 00:53:00,070 Amazon, lanzando de manera similar fuerzas del orden y militares. 614 00:53:00,070 --> 00:53:02,280 IBM y otras firmas líderes, 615 00:53:02,280 --> 00:53:04,890 están lanzando la ley aplicación y militar. 616 00:53:05,840 --> 00:53:09,420 Para seguir siendo competitivo, Google se ha transformado lentamente. 617 00:53:15,150 --> 00:53:18,910 - La ciencia de la defensa Junta dijo de todos los 618 00:53:18,910 --> 00:53:22,170 avances tecnológicos que están sucediendo ahora mismo, 619 00:53:22,170 --> 00:53:26,780 lo más importante era inteligencia artificial 620 00:53:26,780 --> 00:53:30,780 y las operaciones autónomas que conduciría. 621 00:53:30,780 --> 00:53:32,330 ¿Estamos invirtiendo lo suficiente? 622 00:53:37,810 --> 00:53:41,220 - Una vez que desarrollamos lo que se conoce como 623 00:53:41,220 --> 00:53:45,820 armas letales autónomas, en otras palabras, 624 00:53:45,820 --> 00:53:51,510 armas que no están controladas en absoluto, son genuinamente autónomos, 625 00:53:51,510 --> 00:53:54,000 solo tienes que conseguir un presidente que dice, 626 00:53:54,000 --> 00:53:56,410 "Al diablo con el derecho internacional, tenemos estas armas. 627 00:53:56,410 --> 00:53:58,560 "Vamos a hacer lo que queremos con ellos ". 628 00:54:02,540 --> 00:54:03,960 - Estaban muy cerca. 629 00:54:03,960 --> 00:54:06,340 Cuando tienes el hardware ya configurado 630 00:54:06,340 --> 00:54:10,360 y todo lo que tienes que hacer es encender un interruptor para hacerlo completamente autónomo, 631 00:54:10,360 --> 00:54:13,240 ¿Qué hay ahí? impidiéndote hacer eso? 632 00:54:14,670 --> 00:54:19,080 Hay algo realmente a lo que temer en guerra a velocidad de máquina. 633 00:54:19,930 --> 00:54:24,370 ¿Y si eres una máquina y has corrido? millones y millones de escenarios de guerra diferentes 634 00:54:24,370 --> 00:54:28,060 y tienes un equipo de drones y ha delegado el control a la mitad de ellos, 635 00:54:28,060 --> 00:54:30,790 y estás colaborando en tiempo real? 636 00:54:30,790 --> 00:54:35,600 ¿Qué pasa cuando ese enjambre de drones tiene la tarea de involucrar a una ciudad? 637 00:54:37,490 --> 00:54:39,870 ¿Cómo se apoderarán de esa ciudad? 638 00:54:39,870 --> 00:54:42,760 La respuesta es que no lo haremos saber hasta que suceda. 639 00:54:50,020 --> 00:54:53,910 - No queremos que un sistema de IA decida 640 00:54:53,910 --> 00:54:56,180 que humano atacaría, 641 00:54:56,180 --> 00:54:59,500 pero vamos en contra competidores autoritarios. 642 00:54:59,500 --> 00:55:02,450 Entonces, en mi opinión, un régimen autoritario 643 00:55:02,450 --> 00:55:05,710 tendrá menos problemas delegar autoridad 644 00:55:05,710 --> 00:55:08,460 a una máquina para tomar decisiones letales. 645 00:55:09,410 --> 00:55:12,660 Entonces, queda por ver cómo se desarrolla eso. 646 00:55:37,270 --> 00:55:41,020 - Casi el don de la IA ahora es que nos va a obligar 647 00:55:41,020 --> 00:55:44,410 colectivamente para pensar a un nivel muy básico, 648 00:55:44,410 --> 00:55:46,310 ¿Qué significa ser humano? 649 00:55:48,620 --> 00:55:50,510 ¿Qué hago mejor como humano? 650 00:55:50,510 --> 00:55:52,970 que cierto máquina súper inteligente puede hacer? 651 00:55:56,300 --> 00:56:01,000 Primero, creamos nuestra tecnología y luego nos recrea. 652 00:56:01,000 --> 00:56:05,630 Necesitamos asegurarnos de que no te pierdas algunas de las cosas 653 00:56:05,630 --> 00:56:07,520 que nos hacen tan hermosos humanos. 654 00:56:11,840 --> 00:56:14,380 - Una vez que construimos máquinas inteligentes, 655 00:56:14,380 --> 00:56:16,920 el vocabulario filosófico tenemos disponible para pensar 656 00:56:16,920 --> 00:56:20,680 sobre nosotros mismos como humanos cada vez más nos falla. 657 00:56:23,160 --> 00:56:25,950 Si te pido que escribas un lista de todos los términos que tienes 658 00:56:25,950 --> 00:56:28,960 disponible para describirte a ti mismo como humano, 659 00:56:28,960 --> 00:56:31,100 no hay tantos términos. 660 00:56:31,100 --> 00:56:38,140 Cultura, historia, sociabilidad, tal vez política, civilización, 661 00:56:38,820 --> 00:56:45,090 subjetividad, todos estos términos molidos en dos posiciones 662 00:56:45,670 --> 00:56:48,020 que los humanos somos más que simples animales 663 00:56:49,000 --> 00:56:52,200 y que los humanos somos más que meras máquinas. 664 00:56:55,140 --> 00:56:59,290 Pero si las máquinas realmente creo que hay un gran conjunto 665 00:56:59,290 --> 00:57:03,520 de preguntas filosóficas clave en el que lo que está en juego es: 666 00:57:04,880 --> 00:57:09,080 ¿Quienes somos? ¿Cuál es nuestro lugar en el mundo? Que es el mundo Como esta estructurado 667 00:57:09,080 --> 00:57:12,190 ¿Las categorías en las que nos hemos basado 668 00:57:12,190 --> 00:57:14,510 - ¿Todavía funcionan? ¿Estaban equivocados? 669 00:57:19,500 --> 00:57:22,220 - Mucha gente piensa en inteligencia como algo misterioso 670 00:57:22,220 --> 00:57:26,190 que solo puede existir dentro de organismos biológicos, como nosotros, 671 00:57:26,190 --> 00:57:29,260 pero la inteligencia lo es todo sobre el procesamiento de la información. 672 00:57:30,280 --> 00:57:32,230 No importa si la inteligencia se procesa 673 00:57:32,230 --> 00:57:35,940 por átomos de carbono dentro de células y cerebros, y personas, 674 00:57:35,940 --> 00:57:38,020 o por átomos de silicio en computadoras. 675 00:57:40,700 --> 00:57:43,320 Parte del éxito de La IA ha llegado recientemente 676 00:57:43,320 --> 00:57:47,540 de robar grandes ideas de la evolución. 677 00:57:47,540 --> 00:57:49,320 Notamos que el cerebro, por ejemplo, 678 00:57:49,320 --> 00:57:52,920 tiene todas estas neuronas adentro conectado de formas complicadas. 679 00:57:52,920 --> 00:57:55,660 Así que robamos esa idea y la abstraemos 680 00:57:55,660 --> 00:57:58,350 en neuronales artificiales redes en computadoras, 681 00:57:59,330 --> 00:58:02,800 y eso es lo que ha revolucionado inteligencia de la máquina. 682 00:58:07,690 --> 00:58:10,300 Si un día nos volvemos artificiales Inteligencia general, 683 00:58:10,300 --> 00:58:14,330 entonces, por definición, la IA puede también hacen mejor el trabajo de la IA 684 00:58:14,330 --> 00:58:18,930 programación y eso significa que un mayor progreso en la realización 685 00:58:18,930 --> 00:58:22,950 La IA no estará dominada por programadores humanos, sino por IA. 686 00:58:25,450 --> 00:58:29,090 IA de mejora automática recursiva podría dejar la inteligencia humana 687 00:58:29,090 --> 00:58:32,990 muy por detrás de, creando super inteligencia. 688 00:58:34,970 --> 00:58:37,970 Va a ser el ultimo invención que siempre necesitamos hacer, 689 00:58:37,970 --> 00:58:40,520 porque luego puede inventar todo lo demás 690 00:58:40,520 --> 00:58:42,010 mucho más rápido de lo que pudimos. 691 00:59:54,040 --> 00:59:59,040 - Hay un futuro que todos necesitamos hablar. 692 00:59:59,110 --> 01:00:02,430 Algunos de los fundamentales preguntas sobre el futuro 693 01:00:02,430 --> 01:00:06,280 de inteligencia artificial, no solo a donde va, 694 01:00:06,280 --> 01:00:09,630 sino lo que significa para la sociedad ir allí. 695 01:00:10,930 --> 01:00:14,620 No es lo que pueden hacer las computadoras, 696 01:00:14,620 --> 01:00:17,590 pero qué deberían hacer las computadoras. 697 01:00:17,590 --> 01:00:22,210 Como la generación de personas que está llevando la IA al futuro, 698 01:00:22,210 --> 01:00:27,690 somos la generación que lo hará responda esta pregunta en primer lugar. 699 01:00:34,570 --> 01:00:37,380 - No hemos creado el máquina de pensar a nivel humano todavía, 700 01:00:37,380 --> 01:00:39,410 pero nos acercamos más y más. 701 01:00:41,100 --> 01:00:44,780 Tal vez lleguemos al nivel humano IA en cinco años a partir de ahora 702 01:00:44,780 --> 01:00:47,410 o tal vez se necesiten 50 o dentro de 100 años. 703 01:00:47,660 --> 01:00:51,540 Casi no importa. Como si todos fueran muy, muy pronto, 704 01:00:51,540 --> 01:00:56,060 en términos de la general historia de la humanidad. 705 01:01:01,200 --> 01:01:02,180 Muy agradable. 706 01:01:15,750 --> 01:01:19,350 Entonces, el campo de la IA es extremadamente internacional. 707 01:01:19,350 --> 01:01:23,790 China está en auge y es comenzando a rivalizar con los Estados Unidos, 708 01:01:23,790 --> 01:01:26,940 Europa y Japón en términos de poner mucho 709 01:01:26,940 --> 01:01:29,770 de potencia de procesamiento detrás de la IA 710 01:01:29,770 --> 01:01:33,120 y reuniendo un montón de datos para ayudar a la IA a aprender. 711 01:01:35,960 --> 01:01:40,540 Tenemos una generación joven de los investigadores chinos ahora. 712 01:01:40,540 --> 01:01:43,910 Nadie sabe donde el próximo la revolución va a venir. 713 01:01:50,120 --> 01:01:54,290 - China siempre quiso convertirse la superpotencia del mundo. 714 01:01:56,120 --> 01:01:59,410 El gobierno chino piensa que la IA les dio la oportunidad de convertirse 715 01:01:59,410 --> 01:02:03,940 uno de los mas avanzados en tecnología, en negocios. 716 01:02:04,190 --> 01:02:07,780 Entonces el gobierno chino mira esto como una gran oportunidad. 717 01:02:09,140 --> 01:02:13,670 Como si hubieran levantado una bandera y dijo: "Ese es un buen campo. 718 01:02:13,670 --> 01:02:16,300 "Las empresas deberían lanzarse a ello". 719 01:02:16,300 --> 01:02:18,300 Entonces el mundo comercial de China y las empresas dicen, 720 01:02:18,300 --> 01:02:20,800 "Está bien, el gobierno levantó una bandera, eso es bueno. 721 01:02:20,800 --> 01:02:22,500 "Pongamos el dinero en ello". 722 01:02:23,900 --> 01:02:28,090 Gigantes tecnológicos chinos, como Baidu, como Tencent y como AliBaba, 723 01:02:28,090 --> 01:02:31,800 pusieron un montón de inversión en el campo de la IA. 724 01:02:33,410 --> 01:02:36,740 Entonces vemos que la IA de China el desarrollo está en auge. 725 01:02:43,430 --> 01:02:47,370 - En China, todos ¿Alipay y WeChat pagan? 726 01:02:47,370 --> 01:02:49,500 por lo que el pago móvil está en todas partes. 727 01:02:50,850 --> 01:02:54,850 Y con eso pueden hacer muchos análisis de IA 728 01:02:54,850 --> 01:02:59,340 saber como tu gasto hábitos, su calificación crediticia. 729 01:03:01,150 --> 01:03:06,100 Tecnología de reconocimiento facial es ampliamente adoptado en China, 730 01:03:06,100 --> 01:03:08,200 en aeropuertos y estaciones de tren. 731 01:03:09,040 --> 01:03:11,570 Entonces, en el futuro, tal vez en solo unos meses, 732 01:03:11,570 --> 01:03:15,140 no necesitas un papel billete para abordar un tren. 733 01:03:15,140 --> 01:03:15,970 Solo tu cara. 734 01:03:24,620 --> 01:03:29,690 - Generamos la plataforma más grande del mundo de reconocimiento facial. 735 01:03:31,260 --> 01:03:37,300 Contamos con 300.000 desarrolladores utilizando nuestra plataforma. 736 01:03:38,330 --> 01:03:41,550 Mucho de esto son aplicaciones de cámara para selfies. 737 01:03:41,550 --> 01:03:43,930 Te hace lucir más bella. 738 01:03:46,550 --> 01:03:49,780 Hay millones y millones de cámaras en el mundo, 739 01:03:50,760 --> 01:03:54,880 cada cámara desde mi punto es un generador de datos. 740 01:03:58,820 --> 01:04:02,810 En el ojo de una máquina, tu cara cambiará a las características 741 01:04:02,810 --> 01:04:06,660 y te volverá la cara en un párrafo de código. 742 01:04:07,720 --> 01:04:11,980 Para que podamos detectar tu edad son, si eres hombre o mujer, 743 01:04:11,980 --> 01:04:13,440 y tus emociones. 744 01:04:16,640 --> 01:04:20,110 Ir de compras se trata de qué tipo de lo que estás mirando. 745 01:04:20,110 --> 01:04:25,650 Podemos rastrear tus ojos, por lo que si se centra en algún producto, 746 01:04:25,650 --> 01:04:28,690 podemos rastrear eso para que podamos saber 747 01:04:28,690 --> 01:04:32,120 que tipo de gente le gusta qué tipo de producto. 748 01:04:42,450 --> 01:04:45,820 Nuestra misión es crear una plataforma 749 01:04:45,950 --> 01:04:50,300 que permitirá a millones de IA desarrolladores en China. 750 01:04:51,280 --> 01:04:58,060 Estudiamos todos los datos que podemos obtener. 751 01:05:00,440 --> 01:05:04,350 No solo perfiles de usuario, 752 01:05:04,350 --> 01:05:08,380 pero lo que estas haciendo en este momento, 753 01:05:09,460 --> 01:05:12,060 su ubicación geográfica. 754 01:05:15,380 --> 01:05:23,580 Esta plataforma será tan valiosa que no incluso preocuparse por las ganancias ahora, 755 01:05:23,580 --> 01:05:27,660 porque definitivamente está ahí. 756 01:05:29,660 --> 01:05:34,420 El sistema de crédito social de China es solo una de las aplicaciones. 757 01:05:45,990 --> 01:05:48,040 - El gobierno chino está utilizando múltiples 758 01:05:48,040 --> 01:05:50,810 diferentes tipos de tecnologías, ya sea IA, 759 01:05:50,810 --> 01:05:53,650 si es big data plataformas, reconocimiento facial, 760 01:05:53,650 --> 01:05:57,030 reconocimiento de voz, esencialmente para monitorear 761 01:05:57,030 --> 01:05:58,800 lo que hace la población. 762 01:06:01,860 --> 01:06:04,240 Creo que los chinos el gobierno ha dejado muy claro 763 01:06:04,240 --> 01:06:09,240 su intención de reunir masiva cantidades de datos sobre personas 764 01:06:09,600 --> 01:06:13,300 para diseñar socialmente un sociedad libre de disensiones. 765 01:06:16,040 --> 01:06:19,060 La lógica detrás del gobierno chino 766 01:06:19,060 --> 01:06:23,180 sistema de crédito social, es tomar la idea de que 767 01:06:23,180 --> 01:06:27,930 si eres crédito digno de un préstamo financiero 768 01:06:27,930 --> 01:06:31,860 y añadiéndole un muy dimensión política para decir, 769 01:06:31,860 --> 01:06:34,270 "¿Eres un ser humano de confianza? 770 01:06:36,530 --> 01:06:40,270 "Lo que has dicho en línea, ¿alguna vez has estado crítico de las autoridades? 771 01:06:40,270 --> 01:06:42,190 "¿Tiene antecedentes penales?" 772 01:06:43,720 --> 01:06:47,340 Y toda esa información es empaquetados juntos para calificar 773 01:06:47,340 --> 01:06:51,820 tú de maneras que si tienes funcionó bien en su opinión, 774 01:06:51,820 --> 01:06:56,490 tendrás un acceso más fácil a ciertos tipos de los servicios o beneficios estatales. 775 01:06:57,790 --> 01:06:59,710 Pero si no lo has hecho muy bien, 776 01:06:59,710 --> 01:07:02,130 vas a ser sancionado o restringido. 777 01:07:05,940 --> 01:07:09,020 No hay forma de que la gente desafiar esas designaciones 778 01:07:09,020 --> 01:07:12,100 o, en algunos casos, incluso saber que han sido puestos en esa categoría, 779 01:07:12,100 --> 01:07:17,990 y no es hasta que intentan acceder a algún tipo del servicio estatal o comprar un boleto de avión, 780 01:07:17,990 --> 01:07:20,460 u obtener un pasaporte, o inscribir a su hijo en la escuela, 781 01:07:20,460 --> 01:07:23,590 que vienen a aprender que han ha sido etiquetado de esta manera, 782 01:07:23,590 --> 01:07:27,550 y que hay negativas consecuencias para ellos como resultado. 783 01:07:44,970 --> 01:07:48,660 Hemos gastado la mejor parte de los últimos uno o dos años 784 01:07:48,660 --> 01:07:53,180 mirando abusos de vigilancia tecnología en China, 785 01:07:53,180 --> 01:07:56,030 y mucho de ese trabajo nos ha llevado a Xinjiang, 786 01:07:57,580 --> 01:08:01,220 la región noroeste de China que tiene más de la mitad 787 01:08:01,220 --> 01:08:05,870 población de musulmanes turcos, Uigures, kazajos y hui. 788 01:08:08,430 --> 01:08:10,980 Esta es una región y una población el gobierno chino 789 01:08:10,980 --> 01:08:14,900 ha considerado durante mucho tiempo ser políticamente sospechoso o desleal. 790 01:08:17,580 --> 01:08:20,160 Vinimos a buscar información sobre lo que se llama 791 01:08:20,160 --> 01:08:23,130 la Plataforma Integrada de Operaciones Conjuntas, 792 01:08:23,130 --> 01:08:27,190 que es una vigilancia predictiva programa y ese es uno 793 01:08:27,190 --> 01:08:30,650 de los programas que ha sido escupir listas de nombres 794 01:08:30,650 --> 01:08:33,560 de personas a ser sometidas a la reeducación política. 795 01:08:39,090 --> 01:08:42,770 Algunos de nuestros entrevistados para el informe que acabamos de publicar 796 01:08:42,770 --> 01:08:46,110 sobre la educación política campamentos en Xinjiang solo 797 01:08:46,110 --> 01:08:50,380 pintó un extraordinario retrato de un estado de vigilancia. 798 01:08:53,460 --> 01:08:56,380 Una región inundada de cámaras de vigilancia 799 01:08:56,380 --> 01:09:00,600 para fines de reconocimiento facial, puestos de control, escáneres corporales, 800 01:09:00,600 --> 01:09:04,030 Códigos QR fuera de las casas de las personas. 801 01:09:05,660 --> 01:09:10,690 Sí, realmente es cosa distópica películas a las que todos hemos ido y pensado, 802 01:09:10,690 --> 01:09:13,160 "Vaya, eso sería un mundo espeluznante para vivir ". 803 01:09:13,160 --> 01:09:16,510 Sí, bueno, 13 millones Musulmanes turcos en China 804 01:09:16,510 --> 01:09:18,530 están viviendo en esa realidad ahora mismo. 805 01:09:30,840 --> 01:09:33,060 - Los informes de Intercept que Google planea 806 01:09:33,060 --> 01:09:36,490 lanzar una versión censurada de su motor de búsqueda en China. 807 01:09:36,490 --> 01:09:38,730 - Búsqueda de Google para nuevos mercados lo lidera 808 01:09:38,730 --> 01:09:42,170 a China, a pesar de la reglas sobre censura. 809 01:09:42,170 --> 01:09:44,080 - Cuéntanos más sobre por qué sentiste que era 810 01:09:44,080 --> 01:09:46,650 tu responsabilidad ética de dimitir, 811 01:09:46,650 --> 01:09:51,060 porque hablas de ser cómplice de censura y opresión y vigilancia. 812 01:09:51,060 --> 01:09:54,220 - hay un chino empresa de riesgo que tiene que ser 813 01:09:54,220 --> 01:09:56,230 configurado para que Google opere en China. 814 01:09:56,230 --> 01:09:58,920 Y la pregunta es, ¿a qué grado llegaron a controlar 815 01:09:58,920 --> 01:10:01,970 la lista negra y a que grado tendrían solo 816 01:10:01,970 --> 01:10:05,220 acceso sin restricciones a vigilar a los ciudadanos chinos? 817 01:10:05,220 --> 01:10:07,470 Y el hecho de que Google se niega a responder 818 01:10:07,470 --> 01:10:09,250 a las organizaciones de derechos humanos sobre esto, 819 01:10:09,250 --> 01:10:12,060 Creo que debería ser extremadamente perturbador para todos. 820 01:10:16,640 --> 01:10:21,120 Debido a mi convicción de que la disidencia es fundamental para el funcionamiento de las democracias 821 01:10:21,120 --> 01:10:25,560 y obligado a dimitir para evitar contribuyendo o beneficiándose de la erosión 822 01:10:25,560 --> 01:10:27,510 de protecciones para disidentes. 823 01:10:28,560 --> 01:10:30,920 La ONU está actualmente informando que entre 824 01:10:30,920 --> 01:10:34,190 200.000 y un millón Los uigures han desaparecido 825 01:10:34,190 --> 01:10:36,520 en campos de reeducación. 826 01:10:36,520 --> 01:10:39,290 Y hay un argumento serio que Google sería cómplice 827 01:10:39,290 --> 01:10:42,460 ¿Debería lanzar un vigilado versión de búsqueda en China. 828 01:10:45,180 --> 01:10:51,380 Dragonfly es un proyecto destinado para iniciar la búsqueda en China bajo 829 01:10:51,390 --> 01:10:55,810 Regulaciones del gobierno chino, que incluyen censurar 830 01:10:55,810 --> 01:10:59,510 contenido sensible, básico consultas sobre derechos humanos, 831 01:10:59,510 --> 01:11:03,210 información sobre política representantes está bloqueado, 832 01:11:03,210 --> 01:11:07,080 información sobre el estudiante Las protestas están bloqueadas. 833 01:11:07,080 --> 01:11:09,180 Y esa es una pequeña parte. 834 01:11:09,180 --> 01:11:12,250 Quizás una preocupación más profunda es el lado de la vigilancia de esto. 835 01:11:16,070 --> 01:11:19,580 Cuando planteé el problema a mis gerentes, con mis colegas, 836 01:11:19,580 --> 01:11:23,370 había mucha preocupación, pero todos sólo dijo: "No sé nada". 837 01:11:27,760 --> 01:11:30,200 Y luego, cuando finalmente hubo una reunión, 838 01:11:30,200 --> 01:11:35,080 esencialmente no había direccionamiento las graves preocupaciones asociadas con él. 839 01:11:37,010 --> 01:11:39,790 Entonces presenté mi renuncia formal, 840 01:11:39,790 --> 01:11:42,950 no solo a mi gerente, pero en realidad lo distribuí en toda la empresa. 841 01:11:42,950 --> 01:11:45,440 Y esa es la carta del que estaba leyendo. 842 01:11:50,360 --> 01:11:55,960 Personalmente, no he dormido bien. He tenido unos dolores de cabeza bastante horribles 843 01:11:55,960 --> 01:11:58,520 despierta en medio de la noche acaba sudando. 844 01:12:00,640 --> 01:12:03,340 Dicho esto, lo que yo encontrado desde que hablé 845 01:12:03,340 --> 01:12:07,930 es lo positivo que es el global La respuesta a esto ha sido. 846 01:12:10,350 --> 01:12:13,910 Los ingenieros deben exigir para saber para que sirve 847 01:12:13,910 --> 01:12:16,280 de sus contribuciones técnicas son 848 01:12:16,280 --> 01:12:19,340 y tomar asiento a la mesa en esas decisiones éticas. 849 01:12:27,020 --> 01:12:29,590 La mayoría de los ciudadanos realmente no entender lo que significa ser 850 01:12:29,590 --> 01:12:32,250 en una escala muy grande tecnología prescriptiva. 851 01:12:33,720 --> 01:12:36,260 Donde alguien ya ha pre-dividido el trabajo 852 01:12:36,260 --> 01:12:38,300 y todo lo que sabes sobre es tu pedacito, 853 01:12:38,300 --> 01:12:41,150 y casi seguro que no entender cómo encaja. 854 01:12:44,630 --> 01:12:51,040 Entonces, creo que vale la pena dibujar la analogía al trabajo de los físicos sobre la bomba atómica. 855 01:12:53,840 --> 01:12:56,610 De hecho, eso es en realidad la comunidad de la que salí. 856 01:12:59,220 --> 01:13:03,460 No era un científico nuclear de ninguna manera, pero yo era un matemático aplicado 857 01:13:04,400 --> 01:13:09,400 y mi programa de doctorado fue financiado capacitar a las personas para que trabajen en laboratorios de armas. 858 01:13:12,980 --> 01:13:17,100 Ciertamente se podría argumentar que hay una amenaza existencial 859 01:13:17,820 --> 01:13:22,060 y quien sea que lidere en AI liderará militarmente. 860 01:13:31,420 --> 01:13:34,250 - China espera plenamente pasar los Estados Unidos 861 01:13:34,250 --> 01:13:37,480 como la economía número uno en el mundo y cree que 862 01:13:37,480 --> 01:13:42,450 La IA hará que ese salto sea más rápida y dramáticamente. 863 01:13:43,900 --> 01:13:46,480 Y también lo ven como ser capaz de saltar 864 01:13:46,480 --> 01:13:49,820 los Estados Unidos en términos de poder militar. 865 01:13:57,580 --> 01:13:59,600 Su plan es muy simple. 866 01:13:59,600 --> 01:14:03,620 Queremos atrapar a los Estados Unidos y estas tecnologías para 2020, 867 01:14:03,620 --> 01:14:07,940 queremos superar a Estados Unidos en estas tecnologías para 2025, 868 01:14:07,940 --> 01:14:12,600 y queremos ser el líder mundial en IA y tecnologías autónomas para 2030. 869 01:14:15,110 --> 01:14:16,850 Es un plan nacional. 870 01:14:16,850 --> 01:14:21,790 Está respaldado por al menos $ 150 mil millones en inversiones. 871 01:14:21,790 --> 01:14:25,060 Entonces, esta es definitivamente una carrera. 872 01:14:50,070 --> 01:14:52,070 - La IA es un poco como el fuego. 873 01:14:53,360 --> 01:14:56,270 El fuego se inventó hace 700.000 años, 874 01:14:57,480 --> 01:14:59,820 y tiene sus pros y sus contras. 875 01:15:01,960 --> 01:15:06,810 La gente se dio cuenta de que puedes usar fuego para calentarme por la noche y cocinar, 876 01:15:08,520 --> 01:15:14,420 pero también se dieron cuenta de que puedes matar a otras personas con eso. 877 01:15:19,860 --> 01:15:24,300 El fuego también tiene esto Calidad de cultivo similar a la IA 878 01:15:24,300 --> 01:15:27,400 en un incendio forestal sin más preámbulos humanos, 879 01:15:30,530 --> 01:15:35,970 pero las ventajas superan las desventajas por tanto 880 01:15:35,970 --> 01:15:39,760 que no vamos para detener su desarrollo. 881 01:15:49,540 --> 01:15:51,180 Europa está despertando. 882 01:15:52,160 --> 01:15:58,390 Muchas empresas en Europa se están dando cuenta de que la próxima ola de IA 883 01:15:58,730 --> 01:16:01,540 será mucho más grande que la ola actual. 884 01:16:03,310 --> 01:16:08,000 La próxima ola de IA será sobre robots. 885 01:16:09,810 --> 01:16:15,450 Todas estas maquinas que hacen cosas que producen cosas 886 01:16:15,450 --> 01:16:19,370 que construyen otras máquinas, se volverán inteligentes. 887 01:16:26,660 --> 01:16:29,950 En un futuro no muy lejano, tendremos robots 888 01:16:29,950 --> 01:16:33,290 que podemos enseñar como enseñamos a los niños. 889 01:16:35,640 --> 01:16:38,660 Por ejemplo, hablaré con un pequeño robot y te diré, 890 01:16:39,970 --> 01:16:42,550 "Mira aquí, robot, mira aquí. 891 01:16:42,550 --> 01:16:44,620 "Armemos un teléfono inteligente. 892 01:16:44,620 --> 01:16:48,720 "Tomamos esta losa de plástico así y cogemos un destornillador así, 893 01:16:48,720 --> 01:16:52,310 "y ahora lo arruinamos todo así. 894 01:16:52,310 --> 01:16:54,310 "No, no, no así. 895 01:16:54,310 --> 01:16:57,690 "Así, mira, robot, mira, así". 896 01:16:58,820 --> 01:17:01,890 Y fallará un par de veces, pero bastante rápido, 897 01:17:01,890 --> 01:17:05,860 el aprenderá a hacer lo mismo mucho mejor de lo que podría hacerlo. 898 01:17:06,710 --> 01:17:11,400 Y luego paramos el aprendizaje y hacemos un millón de copias y lo vendemos. 899 01:17:32,410 --> 01:17:35,800 Regulación de los sonidos de la IA como una idea atractiva, 900 01:17:35,800 --> 01:17:38,210 pero no creo que sea posible. 901 01:17:40,250 --> 01:17:42,720 Una de las razones por las que no funcionará es 902 01:17:42,720 --> 01:17:46,360 la pura curiosidad de los científicos. 903 01:17:47,260 --> 01:17:49,560 Les importa un comino la regulación. 904 01:17:52,640 --> 01:17:56,740 Los poderes militares no darán un maldita sea por las regulaciones. 905 01:17:56,740 --> 01:17:59,020 Ellos diran, "Si nosotros, los estadounidenses no lo hacemos, 906 01:17:59,020 --> 01:18:00,720 "Entonces los chinos lo harán". 907 01:18:00,720 --> 01:18:03,150 Y los chinos dirán "Oh, si no lo hacemos, 908 01:18:03,150 --> 01:18:04,810 "Entonces los rusos lo harán". 909 01:18:07,700 --> 01:18:10,930 No importa qué tipo de política la regulación está ahí fuera, 910 01:18:10,930 --> 01:18:14,660 todos estos complejos industriales militares, 911 01:18:14,660 --> 01:18:17,570 casi lo harán definición tiene que ignorar eso 912 01:18:18,670 --> 01:18:21,250 porque quieren evitar quedarse atrás. 913 01:18:26,030 --> 01:18:27,690 Bienvenidos a Xinhua. 914 01:18:27,690 --> 01:18:30,260 Soy la primera mujer del mundo Presentador de noticias de IA desarrollado 915 01:18:30,260 --> 01:18:32,690 conjuntamente por Xinhua y empresa de motores de búsqueda Sogou. 916 01:18:33,050 --> 01:18:36,310 - Un programa desarrollado por la empresa OpenAI puede escribir 917 01:18:36,310 --> 01:18:39,500 historias coherentes y creíbles como los seres humanos. 918 01:18:39,500 --> 01:18:41,520 - Es un pequeño paso para la máquina, 919 01:18:41,520 --> 01:18:44,330 un gran salto para el tipo de máquina. 920 01:18:44,330 --> 01:18:47,170 El artificial más nuevo de IBM el sistema de inteligencia asumió 921 01:18:47,170 --> 01:18:51,570 debatidores humanos experimentados y ganó un debate en vivo. 922 01:18:51,570 --> 01:18:54,160 - Generado por computadora videos conocidos como deep fakes 923 01:18:54,160 --> 01:18:57,980 se utilizan para poner a las mujeres caras en videos pornográficos. 924 01:19:02,510 --> 01:19:06,450 - Inteligencia artificial evoluciona a un ritmo muy loco. 925 01:19:07,970 --> 01:19:10,180 Sabes, es como progresar tan rápido. 926 01:19:10,180 --> 01:19:12,940 De alguna manera, somos solo al principio ahora mismo. 927 01:19:14,490 --> 01:19:17,620 Tienes tanto potencial aplicaciones, es una mina de oro. 928 01:19:19,590 --> 01:19:23,450 Desde 2012, cuando el aprendizaje profundo se convirtió en un gran cambio de juego 929 01:19:23,450 --> 01:19:25,370 en la comunidad de visión artificial, 930 01:19:25,370 --> 01:19:28,730 fuimos uno de los primeros en realmente adoptar el aprendizaje profundo 931 01:19:28,730 --> 01:19:31,080 y aplicarlo en el campo de gráficos por computadora. 932 01:19:34,640 --> 01:19:39,800 Gran parte de nuestra investigación está financiada por gobierno, agencias de inteligencia militar. 933 01:19:43,950 --> 01:19:47,840 La forma en que creamos estos mapeos fotorrealistas, 934 01:19:47,840 --> 01:19:50,300 generalmente la forma en que funciona es que necesitamos dos sujetos, 935 01:19:50,300 --> 01:19:53,740 una fuente y un objetivo, y Puedo hacer un reemplazo de cara. 936 01:19:58,880 --> 01:20:03,700 Una de las aplicaciones es, por ejemplo, Quiero manipular la cara de alguien 937 01:20:03,700 --> 01:20:05,450 diciendo cosas que no hizo. 938 01:20:08,920 --> 01:20:12,140 Se puede utilizar para creativos cosas, para contenidos divertidos, 939 01:20:12,140 --> 01:20:16,110 pero obviamente, también puede ser utilizado para simplemente 940 01:20:16,110 --> 01:20:18,660 manipular videos y generar noticias falsas. 941 01:20:21,050 --> 01:20:23,340 Esto puede resultar muy peligroso. 942 01:20:24,790 --> 01:20:29,300 Si llega a las manos equivocadas, puede salirse de control muy rápidamente. 943 01:20:33,370 --> 01:20:35,750 - Estamos entrando en una era en el que nuestros enemigos pueden 944 01:20:35,750 --> 01:20:39,590 haz que parezca que alguien es decir cualquier cosa en cualquier momento, 945 01:20:39,590 --> 01:20:41,830 incluso si lo hicieran nunca digas esas cosas. 946 01:20:42,450 --> 01:20:46,970 De cara al futuro, necesitamos ser más vigilantes con lo que confiamos en Internet. 947 01:20:46,970 --> 01:20:50,710 Puede parecer básico, pero ¿cómo avanzamos 948 01:20:50,710 --> 01:20:55,180 en la era de la información va a ser la diferencia 949 01:20:55,180 --> 01:20:58,160 entre si sobrevivimos o si nos convertimos 950 01:20:58,160 --> 01:21:00,270 una especie de distopía jodida. 951 01:22:31,070 --> 01:22:37,337 - Una crítica que se plantea con frecuencia. en contra de mi trabajo es decir eso, 952 01:22:37,337 --> 01:22:43,610 "Oye, sabes que hubo ideas estúpidas en el pasado como frenología o fisonomía.- 953 01:22:45,110 --> 01:22:49,210 - "Había gente reclamando que puedes leer un personaje 954 01:22:49,210 --> 01:22:52,010 "de una persona solo por su rostro". 955 01:22:53,820 --> 01:22:56,050 La gente decía: "Esto es una tontería. 956 01:22:56,050 --> 01:23:01,050 "Sabemos que fue apenas racismo y superstición velados ". 957 01:23:05,300 --> 01:23:09,650 Pero el hecho de que alguien hizo un reclamo en el pasado 958 01:23:09,650 --> 01:23:14,650 y traté de apoyar esto reclamo con razonamiento inválido, 959 01:23:14,960 --> 01:23:18,970 no automáticamente invalidar la reclamación. 960 01:23:23,790 --> 01:23:25,710 Por supuesto, la gente debería tener derechos 961 01:23:25,710 --> 01:23:31,020 a su privacidad cuando se trata de orientación sexual u opiniones políticas, 962 01:23:32,310 --> 01:23:35,600 pero también me temo que en el entorno tecnológico actual, 963 01:23:35,600 --> 01:23:38,220 esto es esencialmente imposible. 964 01:23:42,640 --> 01:23:44,910 La gente debería darse cuenta no hay vuelta atrás. 965 01:23:44,910 --> 01:23:48,330 No hay huida de los algoritmos. 966 01:23:51,120 --> 01:23:55,670 Cuanto antes aceptemos el verdad inevitable e inconveniente 967 01:23:56,540 --> 01:23:59,430 que la privacidad se ha ido, 968 01:24:01,770 --> 01:24:05,380 cuanto antes podamos realmente empezar a pensar en 969 01:24:05,380 --> 01:24:07,440 Cómo hacer seguro que nuestras sociedades 970 01:24:07,440 --> 01:24:11,660 están listos para la era posterior a la privacidad. 971 01:24:35,080 --> 01:24:37,610 - Al hablar de reconocimiento facial, 972 01:24:37,610 --> 01:24:43,700 en mis pensamientos profundos, a veces llego a la era muy oscura de nuestra historia. 973 01:24:45,490 --> 01:24:49,020 Cuando la gente tuvo que vivir en el sistema, 974 01:24:49,020 --> 01:24:52,660 donde alguna parte de la sociedad fue aceptada 975 01:24:53,680 --> 01:24:56,900 y una parte de la sociedad fue acusado de muerte. 976 01:25:01,670 --> 01:25:06,180 ¿Qué haría Mengele para tener tal instrumento en sus manos? 977 01:25:10,740 --> 01:25:14,390 Sería muy rápido y eficiente para la selección 978 01:25:18,390 --> 01:25:22,100 y esta es la visión apocalíptica. 979 01:26:15,880 --> 01:26:19,870 - Entonces, en un futuro cercano, toda la historia de ti 980 01:26:19,870 --> 01:26:25,340 existirá en una amplia gama de bases de datos conectadas de rostros, 981 01:26:25,750 --> 01:26:28,390 genomas, comportamientos y emociones. 982 01:26:30,950 --> 01:26:35,320 Entonces, tendrás un digital avatar de ti mismo en línea, 983 01:26:35,320 --> 01:26:39,510 que registra lo bien que estamos haciendo como ciudadano, 984 01:26:39,510 --> 01:26:41,910 qué tipo de relación tienes, 985 01:26:41,910 --> 01:26:45,890 que tipo de orientación política y orientación sexual. 986 01:26:50,020 --> 01:26:54,120 Basado en todos esos datos, esos algoritmos podrán 987 01:26:54,120 --> 01:26:58,390 manipular tu comportamiento con extrema precisión, 988 01:26:58,390 --> 01:27:03,890 cambiando nuestra forma de pensar y probablemente en el futuro, cómo nos sentimos. 989 01:27:25,660 --> 01:27:30,510 - Las creencias y deseos del Los primeros AGI serán extremadamente importantes. 990 01:27:32,730 --> 01:27:35,180 Entonces, es importante programarlos correctamente. 991 01:27:36,200 --> 01:27:37,850 Creo que si esto no se hace 992 01:27:38,810 --> 01:27:44,190 entonces la naturaleza de la evolución de la selección natural favorecerá 993 01:27:44,190 --> 01:27:48,340 esos sistemas, priorizar sus propia supervivencia por encima de todo. 994 01:27:51,860 --> 01:27:56,660 No es que vaya a activamente Odio a los humanos y quiero hacerles daño, 995 01:27:58,780 --> 01:28:01,100 pero es solo va a ser demasiado poderoso 996 01:28:01,400 --> 01:28:05,470 y creo que una buena analogía sería la forma en que los humanos tratan a los animales. 997 01:28:06,970 --> 01:28:08,200 No es que odiemos a los animales. 998 01:28:08,260 --> 01:28:11,930 Creo que los humanos aman a los animales y tener mucho cariño por ellos, 999 01:28:12,340 --> 01:28:17,610 pero cuando llegue el momento de construye una carretera entre dos ciudades, 1000 01:28:17,610 --> 01:28:20,130 no estamos preguntando los animales por permiso. 1001 01:28:20,130 --> 01:28:23,340 Solo lo hacemos porque es importante para nosotros. 1002 01:28:24,250 --> 01:28:29,010 Y creo que, por defecto, ese es el tipo de relación que va a haber entre nosotros 1003 01:28:29,010 --> 01:28:34,700 y AGI que son verdaderamente autónomos y operando en su propio nombre. 1004 01:28:47,190 --> 01:28:51,400 Si tienes una carrera armamentista dinámica entre varios reyes 1005 01:28:51,400 --> 01:28:54,140 tratando de construir el AGI primero, 1006 01:28:54,140 --> 01:28:58,000 tendrán menos tiempo para asegurarse que el AGI que construyen 1007 01:28:58,970 --> 01:29:00,520 se preocupará profundamente por los humanos. 1008 01:29:03,530 --> 01:29:06,540 Porque de la forma en que lo imagino es que hay una avalancha, 1009 01:29:06,540 --> 01:29:09,220 hay una avalancha del desarrollo de AGI. 1010 01:29:09,220 --> 01:29:12,300 Imagínese que es una enorme fuerza imparable. 1011 01:29:15,780 --> 01:29:18,740 Y creo que es bastante probable toda la superficie del 1012 01:29:18,740 --> 01:29:22,070 la tierra estaría cubierta con paneles solares y centros de datos. 1013 01:29:26,230 --> 01:29:28,700 Dado este tipo de preocupaciones, 1014 01:29:28,700 --> 01:29:32,830 será importante que el AGI está construido de alguna manera 1015 01:29:32,830 --> 01:29:35,570 como una cooperación con varios países. 1016 01:29:38,060 --> 01:29:41,180 El futuro va a ser bueno para las IA, independientemente. 1017 01:29:42,130 --> 01:29:45,020 Sería bueno si pudiera ser bueno para los humanos también. 1018 01:30:06,750 --> 01:30:10,580 - Hay mucha responsabilidad pesando sobre mis hombros? 1019 01:30:10,580 --> 01:30:11,800 Realmente no. 1020 01:30:13,420 --> 01:30:16,740 ¿Hubo mucho responsabilidad sobre los hombros 1021 01:30:16,740 --> 01:30:19,100 de los padres de Einstein? 1022 01:30:20,190 --> 01:30:21,780 Los padres de alguna manera lo hicieron, 1023 01:30:21,780 --> 01:30:25,450 pero no tenían forma de prediciendo lo que haría, 1024 01:30:25,450 --> 01:30:27,300 y cómo cambiaría el mundo. 1025 01:30:28,580 --> 01:30:32,540 Y entonces, realmente no puedes sostener ellos responsables de eso. 1026 01:30:57,640 --> 01:31:00,240 Entonces, no soy una persona muy centrada en los humanos. 1027 01:31:01,840 --> 01:31:05,500 Creo que estoy dando un pequeño paso piedra en la evolución 1028 01:31:05,500 --> 01:31:08,060 del Universo hacia una mayor complejidad. 1029 01:31:10,820 --> 01:31:14,860 Pero también tengo claro que No soy la corona de la creacion 1030 01:31:14,860 --> 01:31:19,320 y que la humanidad en su conjunto no es la corona de la creación, 1031 01:31:21,140 --> 01:31:26,290 pero estamos preparando el escenario para algo que es más grande que nosotros que nos trasciende. 1032 01:31:28,980 --> 01:31:32,780 Y luego saldrá de alguna manera donde los humanos no pueden seguir 1033 01:31:32,780 --> 01:31:37,940 y transformar todo el Universo, o al menos, el Universo alcanzable. 1034 01:31:41,520 --> 01:31:46,520 Entonces, encuentro belleza y asombro al verme a mí mismo 1035 01:31:46,640 --> 01:31:50,260 como parte de este tema mucho más grandioso. 1036 01:32:14,070 --> 01:32:16,030 - La IA es inevitable. 1037 01:32:17,560 --> 01:32:23,370 Necesitamos asegurarnos de tener la necesaria regulación humana 1038 01:32:23,370 --> 01:32:27,940 para prevenir el armamentismo de inteligencia artificial. 1039 01:32:28,690 --> 01:32:32,000 No necesitamos más armas 1040 01:32:32,000 --> 01:32:33,960 de una herramienta tan poderosa. 1041 01:32:37,100 --> 01:32:41,960 - Una de las cosas más críticas, creo, es la necesidad de gobernanza internacional. 1042 01:32:43,920 --> 01:32:46,310 Tenemos un desequilibrio de poder aquí porque ahora 1043 01:32:46,310 --> 01:32:49,140 tenemos corporaciones con más poder, poder y habilidad, 1044 01:32:49,140 --> 01:32:51,100 que países enteros. 1045 01:32:51,100 --> 01:32:54,050 ¿Cómo nos aseguramos de que la gente ¿Se escuchan voces? 1046 01:32:58,030 --> 01:32:59,930 - No puede ser una zona libre de leyes. 1047 01:32:59,930 --> 01:33:02,100 No puede ser una zona libre de derechos. 1048 01:33:02,100 --> 01:33:05,870 No podemos abrazar todos estos maravillosas nuevas tecnologías 1049 01:33:05,870 --> 01:33:10,380 para el siglo XXI sin tratando de traer con nosotros 1050 01:33:10,380 --> 01:33:15,380 el paquete de derechos humanos que luchamos tan duro 1051 01:33:15,640 --> 01:33:19,190 lograr, y eso sigue siendo tan frágil. 1052 01:33:28,680 --> 01:33:32,180 - La IA no es buena y tampoco es mala. 1053 01:33:32,180 --> 01:33:36,890 Solo va a amplificar los deseos y metas de quien lo controla. 1054 01:33:36,890 --> 01:33:41,240 Y la IA de hoy está bajo el control de un grupo muy, muy pequeño de personas. 1055 01:33:44,430 --> 01:33:49,260 La pregunta más importante que los humanos tenemos que preguntarnos en este momento de la historia 1056 01:33:49,260 --> 01:33:51,380 no requiere conocimientos técnicos. 1057 01:33:51,590 --> 01:33:57,540 Es la pregunta de que tipo de la sociedad futura que queremos crear 1058 01:33:57,540 --> 01:33:59,740 con todo esto tecnología que estamos haciendo? 1059 01:34:01,410 --> 01:34:05,110 ¿Qué queremos el papel de humanos para estar en este mundo? 93360

Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.