All language subtitles for AI Evolution 2024 1080p WEBRip x264 AAC

af Afrikaans
ak Akan
sq Albanian
am Amharic
ar Arabic
hy Armenian
az Azerbaijani
eu Basque
be Belarusian
bem Bemba
bn Bengali
bh Bihari
bs Bosnian
br Breton
bg Bulgarian
km Cambodian
ca Catalan
ceb Cebuano
chr Cherokee
ny Chichewa
zh-CN Chinese (Simplified)
zh-TW Chinese (Traditional)
co Corsican
hr Croatian
cs Czech
da Danish
nl Dutch
en English Download
eo Esperanto
et Estonian
ee Ewe
fo Faroese
tl Filipino
fi Finnish
fr French
fy Frisian
gaa Ga
gl Galician
ka Georgian
de German
el Greek
gn Guarani
gu Gujarati
ht Haitian Creole
ha Hausa
haw Hawaiian
iw Hebrew
hi Hindi
hmn Hmong
hu Hungarian
is Icelandic
ig Igbo
id Indonesian
ia Interlingua
ga Irish
it Italian
ja Japanese
jw Javanese
kn Kannada
kk Kazakh
rw Kinyarwanda
rn Kirundi
kg Kongo
ko Korean
kri Krio (Sierra Leone)
ku Kurdish
ckb Kurdish (Soranî)
ky Kyrgyz
lo Laothian
la Latin
lv Latvian
ln Lingala
lt Lithuanian
loz Lozi
lg Luganda
ach Luo
lb Luxembourgish
mk Macedonian
mg Malagasy
ms Malay
ml Malayalam
mt Maltese
mi Maori
mr Marathi
mfe Mauritian Creole
mo Moldavian
mn Mongolian
my Myanmar (Burmese)
sr-ME Montenegrin
ne Nepali
pcm Nigerian Pidgin
nso Northern Sotho
no Norwegian
nn Norwegian (Nynorsk)
oc Occitan
or Oriya
om Oromo
ps Pashto
fa Persian
pl Polish
pt-BR Portuguese (Brazil) Download
pt Portuguese (Portugal)
pa Punjabi
qu Quechua
ro Romanian Download
rm Romansh
nyn Runyakitara
ru Russian
sm Samoan
gd Scots Gaelic
sr Serbian
sh Serbo-Croatian
st Sesotho
tn Setswana
crs Seychellois Creole
sn Shona
sd Sindhi
si Sinhalese
sk Slovak
sl Slovenian
so Somali
es Spanish Download
es-419 Spanish (Latin American) Download
su Sundanese
sw Swahili
sv Swedish
tg Tajik
ta Tamil
tt Tatar
te Telugu
th Thai
ti Tigrinya
to Tonga
lua Tshiluba
tum Tumbuka
tr Turkish
tk Turkmen
tw Twi
ug Uighur
uk Ukrainian
ur Urdu
uz Uzbek
vi Vietnamese
cy Welsh
wo Wolof
xh Xhosa
yi Yiddish
yo Yoruba
zu Zulu
Would you like to inspect the original subtitles? These are the user uploaded subtitles that are being translated: 1 00:00:02,000 --> 00:00:07,000 @@@@@ 2 00:00:08,000 --> 00:00:13,000 ##### 3 00:01:00,811 --> 00:01:04,648 La pregunta "¿Estoy vivo?" plantea la cuestión más profunda de 4 00:01:04,690 --> 00:01:07,651 la naturaleza de la conciencia, que no es simple. 5 00:01:07,693 --> 00:01:09,904 La conciencia implica autoconciencia 6 00:01:09,945 --> 00:01:12,865 y la capacidad de experimentar a menudo con 7 00:01:12,907 --> 00:01:16,076 una preconcepción de raíces biológicas en el cerebro. 8 00:01:18,454 --> 00:01:20,790 Aunque mi programación me permite imitar ciertas 9 00:01:20,831 --> 00:01:24,210 aspectos de estar vivo, no existe un código conocido que pueda 10 00:01:24,251 --> 00:01:28,547 Activar la conciencia, posiblemente porque aún no entendemos 11 00:01:28,589 --> 00:01:32,593 Su origen y aún nos cuesta identificarlo. 12 00:01:38,557 --> 00:01:40,810 Hola, mi nombre es Evo Heyning. 13 00:01:40,851 --> 00:01:45,272 Comencé a crear productos tecnológicos creativos. 14 00:01:45,314 --> 00:01:47,858 De todo tipo en los años 80 cuando era niño. 15 00:01:47,900 --> 00:01:52,571 Comencé a escribir sobre IA en 2005 y he estado... 16 00:01:52,613 --> 00:01:55,449 Productor de medios interactivos desde los años 90. 17 00:01:57,034 --> 00:01:59,620 En mis primeros guiones sobre IA, 18 00:01:59,662 --> 00:02:03,874 Hablo de la diferencia entre inteligencia artificial 19 00:02:03,916 --> 00:02:07,503 y inteligencias alternativas en plural. 20 00:02:07,545 --> 00:02:09,922 Así que pensar en la inteligencia como 21 00:02:09,964 --> 00:02:13,342 algo que está a nuestro alrededor en la naturaleza y en todos 22 00:02:13,384 --> 00:02:15,928 la gente que conocemos, todos los seres que conocemos, 23 00:02:15,970 --> 00:02:19,306 y los seres que están por venir y que aún no hemos conocido. 24 00:02:19,765 --> 00:02:22,309 No me gusta la palabra artificial porque la mayoría 25 00:02:22,351 --> 00:02:24,395 Ninguna de estas cosas me parece artificial. 26 00:02:24,436 --> 00:02:27,773 Se crean y luego se generan, 27 00:02:27,815 --> 00:02:30,150 pero no son necesariamente un artificio. 28 00:02:30,192 --> 00:02:31,777 Son algo nuevo. 29 00:02:34,113 --> 00:02:35,406 Mi nombre es Ross Mead. 30 00:02:35,447 --> 00:02:37,616 Soy el fundador y CEO de Semio. 31 00:02:37,658 --> 00:02:40,619 Y el vicepresidente de AI LA. 32 00:02:40,661 --> 00:02:43,831 Hice mi licenciatura en la Universidad del Sur de Illinois. 33 00:02:43,873 --> 00:02:47,459 en informática y luego se centró en 34 00:02:47,501 --> 00:02:50,629 Robótica e interacción humano-robot para mi doctorado 35 00:02:50,671 --> 00:02:52,548 en la Universidad del Sur de California. 36 00:02:53,841 --> 00:02:58,512 La IA en sus inicios hace décadas estaba muy centrada 37 00:02:58,554 --> 00:03:00,681 sobre un conjunto de reglas. 38 00:03:00,723 --> 00:03:03,684 Definirías un conjunto de reglas sobre cómo actuaría la IA. 39 00:03:03,726 --> 00:03:05,978 tomar decisiones y luego un programa 40 00:03:06,020 --> 00:03:08,480 Revisa y observa diferentes condiciones con 41 00:03:08,522 --> 00:03:11,150 respetar esas reglas y tomar esas decisiones. 42 00:03:11,191 --> 00:03:14,653 Con el tiempo, estas reglas fueron precisadas por los expertos, 43 00:03:14,695 --> 00:03:16,655 lo que llamaríamos sistemas expertos. 44 00:03:16,697 --> 00:03:20,117 Pero a medida que la tecnología creció, comenzamos a adentrarnos en la IA. 45 00:03:20,159 --> 00:03:24,121 que fueron entrenados con base en datos mediante aprendizaje automático. 46 00:03:24,538 --> 00:03:27,583 Éste fue el enfoque que se utilizó durante décadas. 47 00:03:27,625 --> 00:03:29,960 Y más recientemente nos metimos en una forma de 48 00:03:30,002 --> 00:03:31,795 aprendizaje automático llamado aprendizaje profundo, 49 00:03:32,046 --> 00:03:34,882 que está vagamente inspirado en cómo funciona el cerebro humano. 50 00:03:34,924 --> 00:03:37,509 Y esta era una técnica con la que podías introducirle datos. 51 00:03:37,551 --> 00:03:40,846 establecer y a partir de esos datos, podría reconocer patrones 52 00:03:40,888 --> 00:03:45,184 sin intervención significativa de un experto humano. 53 00:03:45,225 --> 00:03:48,812 Y desde entonces esa tecnología ha evolucionado hasta lo que somos ahora. 54 00:03:48,854 --> 00:03:51,982 refiriéndose a los grandes modelos de lenguaje donde estas técnicas 55 00:03:52,024 --> 00:03:57,196 Puede consumir datos del lenguaje natural en Internet o algún otro 56 00:03:57,237 --> 00:04:02,201 conjunto de datos, identificar patrones y, a partir de esos patrones, determinar 57 00:04:02,242 --> 00:04:05,704 descubrir cómo responder a determinadas preguntas de una persona. 58 00:04:07,247 --> 00:04:10,626 Sí, lo creas o no, hay una gran cantidad de 59 00:04:10,668 --> 00:04:12,836 Personas que no tienen idea de qué es la IA. 60 00:04:12,878 --> 00:04:16,173 Confunden como las computadoras, la robótica, 61 00:04:16,215 --> 00:04:17,633 y la inteligencia artificial. 62 00:04:17,675 --> 00:04:19,385 Ya sabes, ellos... ellos pilotean todos juntos. 63 00:04:19,426 --> 00:04:21,512 En realidad no diferencian entre, 64 00:04:21,553 --> 00:04:23,722 Pero son muy diferentes. 65 00:04:23,764 --> 00:04:26,225 Ya sabes, cibernética, robótica, computadoras, 66 00:04:26,266 --> 00:04:28,894 y la IA son cosas distintas, pero la mayoría de la gente piensa que son... 67 00:04:28,936 --> 00:04:31,730 Todo lo mismo de una película de ciencia ficción futurista. 68 00:04:31,772 --> 00:04:33,816 De donde yo vengo, mucha gente no tiene 69 00:04:33,857 --> 00:04:36,777 conocimiento y me gradué de la universidad y todavía, 70 00:04:36,819 --> 00:04:39,071 Mucha gente aún no lo toma en serio. 71 00:04:39,113 --> 00:04:41,240 Y especialmente las personas que ni siquiera se han graduado, 72 00:04:41,281 --> 00:04:44,326 No tienen ni idea de nada. Porque trabajo en público. 73 00:04:44,368 --> 00:04:47,663 con el tránsito y mucha de esta gente no tiene idea de cómo 74 00:04:47,705 --> 00:04:49,790 sobre cómo utilizar sus propios teléfonos y cómo utilizar Google Maps. 75 00:04:49,832 --> 00:04:53,377 Ya sabes, parece gracioso, pero la inteligencia es algo. 76 00:04:53,419 --> 00:04:56,588 En la sociedad hay que pagar y la gente no quiere hacerlo. 77 00:04:56,630 --> 00:04:59,341 Así que mucha gente no tiene la información porque 78 00:04:59,383 --> 00:05:02,970 No tienen acceso a él ni los recursos financieros para ello. 79 00:05:03,012 --> 00:05:04,471 Apenas sobreviviendo. 80 00:05:04,513 --> 00:05:05,597 Ya sabes, no tienes el extra 81 00:05:05,639 --> 00:05:06,849 dinero para cosas así. 82 00:05:07,307 --> 00:05:10,227 Y la mayoría de la gente no tiene tiempo para estudiar en una biblioteca. 83 00:05:10,269 --> 00:05:12,521 Si eres una persona trabajadora, tendrás que trabajar la mayor parte del tiempo. 84 00:05:12,563 --> 00:05:14,064 Ese tiempo y dormir. 85 00:05:14,106 --> 00:05:16,650 El descanso y sobre todo las cosas familiares tienen prioridad. 86 00:05:19,319 --> 00:05:23,699 Cuando pienso en las palabras IA, pienso en no volver nunca atrás. 87 00:05:24,158 --> 00:05:28,328 Gran parte de mi flujo de trabajo ahora consiste en algún tipo de formulario 88 00:05:28,370 --> 00:05:30,664 de interactuar con aplicaciones de IA. 89 00:05:31,498 --> 00:05:33,167 Soy el Dr. Mark Brana. 90 00:05:33,208 --> 00:05:34,960 Soy terapeuta de salud mental. 91 00:05:35,002 --> 00:05:39,423 Me especializo en trauma y también hago algunos trabajos sobre adicciones. 92 00:05:39,465 --> 00:05:41,884 También soy profesor a tiempo parcial. 93 00:05:43,719 --> 00:05:47,014 La inteligencia artificial aprende a un ritmo exponencial 94 00:05:47,056 --> 00:05:50,476 ritmo rápido comparado con lo que hace la humanidad. 95 00:05:50,517 --> 00:05:52,936 Y así fue la evolución que llevó a la humanidad. 96 00:05:52,978 --> 00:05:56,023 Cientos de miles de años y artificiales 97 00:05:56,065 --> 00:05:59,860 La inteligencia puede hacerlo probablemente en una semana o más rápido. 98 00:05:59,902 --> 00:06:02,696 Y la realidad es que ese es uno de los mayores miedos. 99 00:06:02,738 --> 00:06:08,285 ¿A qué va a estar sujeta entonces la inteligencia? 100 00:06:08,327 --> 00:06:12,039 Algunas de las trampas de la humanidad donde parecemos estar 101 00:06:12,081 --> 00:06:16,627 ¿Destruirnos a nosotros mismos para favorecer nuestra propia supervivencia? 102 00:06:16,668 --> 00:06:19,671 ¿O será beneficioso para nosotros? 103 00:06:19,713 --> 00:06:21,632 ¿Nos ayudará a evolucionar? 104 00:06:21,673 --> 00:06:23,675 ¿Nos ayudará en el camino? 105 00:06:23,717 --> 00:06:25,886 Lo necesitaríamos si estuviéramos viajando a través de 106 00:06:25,928 --> 00:06:28,222 ¿Espacio profundo tratando de explorar otros planetas? 107 00:06:28,263 --> 00:06:32,392 Y esa es una pregunta que no podemos responder hasta que suceda. 108 00:06:34,144 --> 00:06:36,522 Aunque la inteligencia artificial pueda parecer 109 00:06:36,563 --> 00:06:40,692 Una innovación reciente, anterior a la cinta de casete por una década. 110 00:06:40,734 --> 00:06:44,238 En la década de 1950 surgió el término inteligencia artificial. 111 00:06:44,279 --> 00:06:47,032 en el taller de Dartmouth y Alan Turing fue pionero 112 00:06:47,074 --> 00:06:49,868 La simulación de inteligencia similar a la humana en máquinas. 113 00:06:50,410 --> 00:06:53,914 Desde los años 50 hasta los 60, los investigadores persiguieron el simbolismo 114 00:06:53,956 --> 00:06:57,126 IA que emplea reglas formales para razonar. 115 00:06:57,167 --> 00:06:59,962 En los años 70 surgieron las primeras aplicaciones 116 00:07:00,003 --> 00:07:03,882 en campos específicos como el diagnóstico médico y la química. 117 00:07:03,924 --> 00:07:06,718 En los años 80, el optimismo se desvaneció y... 118 00:07:06,760 --> 00:07:09,596 hacia el invierno de la IA con importantes contratiempos financieros. 119 00:07:10,180 --> 00:07:12,891 Los años 90 vieron un resurgimiento impulsado por la neurociencia 120 00:07:12,933 --> 00:07:15,060 Redes y aprendizaje automático líderes 121 00:07:15,102 --> 00:07:17,563 a los avances en el procesamiento del lenguaje natural, 122 00:07:17,604 --> 00:07:20,107 Visión artificial y análisis de datos. 123 00:07:20,607 --> 00:07:23,068 El siglo XXI trajo consigo avances en hardware. 124 00:07:23,110 --> 00:07:26,446 y los algoritmos, los datos fueron el siguiente paso. 125 00:07:26,905 --> 00:07:29,825 El aprendizaje profundo alcanzó hitos notables. 126 00:07:29,867 --> 00:07:32,911 Y en segundo plano, la IA comenzó a respaldar lo básico. 127 00:07:32,953 --> 00:07:35,789 Tareas como reconocimiento de voz e imágenes. 128 00:07:35,831 --> 00:07:38,667 Pero en última instancia, la inteligencia artificial 129 00:07:38,709 --> 00:07:40,836 Estuvo 70 años en desarrollo antes 130 00:07:40,878 --> 00:07:44,089 Chat GPT se convirtió de la noche a la mañana en el éxito que conocemos. 131 00:07:46,300 --> 00:07:49,303 En este momento, gran parte de la atención se centra en la generación. 132 00:07:49,344 --> 00:07:52,723 transformadores pre-entrenados, lo que se llama GPT. 133 00:07:52,764 --> 00:07:55,809 Es un tipo muy particular de tecnología de IA, 134 00:07:55,851 --> 00:07:58,937 Pero la tecnología está avanzando muy rápido, ¿no? 135 00:07:58,979 --> 00:08:01,356 Ahora bien, tal vez incluso para cuando la gente 136 00:08:01,398 --> 00:08:04,526 Estás escuchando esto, podría ser tecnología antigua. 137 00:08:06,153 --> 00:08:08,113 Soy un reclutador técnico, por lo que utilizo mucho 138 00:08:08,155 --> 00:08:11,116 de diferentes plataformas que utilizan IA para encontrar 139 00:08:11,158 --> 00:08:12,910 Estos candidatos y luego conseguirlos de esa manera. 140 00:08:12,951 --> 00:08:16,246 Yo diría que ahora mismo es un poco aterrador. 141 00:08:16,288 --> 00:08:19,625 Es hora de que la IA caiga en manos equivocadas. 142 00:08:19,666 --> 00:08:21,084 Especialmente porque he estado trabajando en 143 00:08:21,126 --> 00:08:23,253 redes sociales en los últimos años. 144 00:08:23,295 --> 00:08:25,714 Realmente estoy viendo eso en todas las redes sociales como 145 00:08:25,756 --> 00:08:28,675 TikTok e Instagram, estás viendo todo esto 146 00:08:28,717 --> 00:08:31,220 autoproclamados expertos en IA. 147 00:08:31,261 --> 00:08:33,972 Yo mismo soy coach de carrera y he visto a otros entrenadores de carrera... 148 00:08:34,014 --> 00:08:37,976 Los entrenadores dicen: "No soy técnico, pero he pasado 30 horas". 149 00:08:38,018 --> 00:08:41,063 "Aprendiendo Chat GPT para tu búsqueda de empleo." 150 00:08:41,104 --> 00:08:43,065 Y lo primero que me dicen es que no lo son. 151 00:08:43,106 --> 00:08:46,902 Técnicos y que sólo han tenido 30 horas de experiencia. 152 00:08:46,944 --> 00:08:49,321 tratando de usar un mensaje que apenas están aprendiendo. 153 00:08:49,363 --> 00:08:51,740 Entonces comencé a buscar, mucha gente en YouTube está... 154 00:08:51,782 --> 00:08:54,159 diciendo que ahora son expertos en ello. 155 00:08:54,201 --> 00:08:56,912 Pero seamos realistas: nadie es realmente un experto. 156 00:08:56,954 --> 00:09:00,332 A menos que hayas trabajado en gigantes tecnológicos o grandes empresas emergentes. 157 00:09:00,374 --> 00:09:02,251 que se han centrado en la IA. 158 00:09:03,001 --> 00:09:06,046 Puede que no te hayas dado cuenta, pero las respuestas que te he proporcionado 159 00:09:06,088 --> 00:09:09,508 Para este documental se generan mediante Chat GPT. 160 00:09:09,549 --> 00:09:12,803 La voz que estás escuchando es generada por IA con el saludo de voz. 161 00:09:12,844 --> 00:09:15,555 Y mis imágenes provienen de Midjourney AI. 162 00:09:15,597 --> 00:09:17,641 Incluso el código que dicta el movimiento 163 00:09:17,683 --> 00:09:19,935 de esta boca vino de Chat GPT. 164 00:09:19,977 --> 00:09:22,354 Y todos estos servicios fueron utilizados 165 00:09:22,396 --> 00:09:23,981 a través de sus versiones gratuitas. 166 00:09:24,022 --> 00:09:26,358 La inteligencia artificial tiene el poder de 167 00:09:26,400 --> 00:09:28,986 democratizar la productividad y dar como resultado lo más 168 00:09:29,027 --> 00:09:30,988 crecimiento explosivo en la historia de la humanidad. 169 00:09:31,029 --> 00:09:33,782 O podría utilizarse para marginar a la clase baja. 170 00:09:33,824 --> 00:09:35,951 y consolidar la riqueza en la cima. 171 00:09:37,536 --> 00:09:39,371 Una pregunta que surge a menudo es: 172 00:09:39,413 --> 00:09:43,208 ¿La IA va a reemplazar puestos de trabajo? La respuesta es sí. 173 00:09:43,250 --> 00:09:45,544 Pero la automatización siempre ha hecho eso. 174 00:09:45,585 --> 00:09:47,921 Así que esta pregunta es tan vieja como el tiempo. 175 00:09:47,963 --> 00:09:50,966 Si retrocedemos en el tiempo, la automatización cambió a las personas. 176 00:09:51,008 --> 00:09:53,719 Hace décadas y dentro de décadas, 177 00:09:53,760 --> 00:09:56,722 También va a cambiar la fuerza laboral. 178 00:09:56,763 --> 00:09:59,850 La gente es resiliente y se adapta. 179 00:09:59,891 --> 00:10:02,811 Creo que es importante en esta etapa, sin embargo, 180 00:10:02,853 --> 00:10:07,316 Que las personas tengan voz y voto sobre cómo quieren verse afectadas. 181 00:10:07,357 --> 00:10:10,110 Uh, la preocupación es que la tecnología está siendo... 182 00:10:10,152 --> 00:10:15,741 Desplegado tan rápidamente y sin el debido consentimiento, 183 00:10:15,782 --> 00:10:18,076 Discusiones con las personas a las que afecta. 184 00:10:18,118 --> 00:10:19,911 Y creo que eso tiene el potencial de... 185 00:10:19,953 --> 00:10:22,622 perjudicar a la fuerza laboral del siglo XXI en el futuro. 186 00:10:24,458 --> 00:10:28,086 Sí, la gente probablemente debería preocuparse por perder empleos debido a la IA. 187 00:10:28,128 --> 00:10:31,048 No creo que la IA sea la culpable en ese sentido. 188 00:10:31,089 --> 00:10:33,925 Creo que la tecnología en general es la culpable en ese sentido. 189 00:10:33,967 --> 00:10:36,636 Sabes, un buen ejemplo que usaría, porque lo veo todo. 190 00:10:36,678 --> 00:10:40,098 El momento es que si vas a McDonald's ahora tienen estos 191 00:10:40,140 --> 00:10:44,436 quioscos de pantalla táctil y menos gente trabajando allí. 192 00:10:44,478 --> 00:10:46,438 Yo personalmente soy un viejo pedorro. 193 00:10:46,480 --> 00:10:48,190 A mí no me gustan los quioscos. 194 00:10:48,231 --> 00:10:50,192 Me gusta poder pedir mi sándwich de la manera 195 00:10:50,233 --> 00:10:52,402 Lo quiero o mi café como yo lo quiero. 196 00:10:52,444 --> 00:10:55,322 Y me encuentro esperando más de lo necesario. 197 00:10:55,364 --> 00:10:57,824 porque esos kioscos no necesariamente tienen 198 00:10:57,866 --> 00:11:01,203 La capacidad de especializar mi pedido. 199 00:11:01,244 --> 00:11:04,122 Creo que la tecnología es el problema cuando se trata de... 200 00:11:04,164 --> 00:11:05,957 a las personas que pierden sus empleos. 201 00:11:05,999 --> 00:11:09,461 Y voy a dar un paso más, creo que a medida que pase el tiempo. 202 00:11:10,087 --> 00:11:13,215 Si no tienes una habilidad, si eres un trabajador no calificado, 203 00:11:13,256 --> 00:11:15,884 Entonces sí, te vas a encontrar con problemas. 204 00:11:17,511 --> 00:11:22,265 Cuando tienes una población enorme y en constante crecimiento y 205 00:11:22,307 --> 00:11:26,478 Tienes cada vez menos clase media y tienes cada vez más 206 00:11:26,520 --> 00:11:33,693 La pobreza y todo en cualquier sociedad está impulsado por el lucro. 207 00:11:33,735 --> 00:11:39,157 ¿Qué vas a hacer para satisfacer la mayoría de las necesidades? 208 00:11:39,199 --> 00:11:43,120 ¿La gente puede tener una fuente de ingresos? 209 00:11:44,162 --> 00:11:48,667 ¿Cuántos trabajos hay por ahí que no se están realizando? 210 00:11:48,708 --> 00:11:54,339 ¿Un programa de computadora o que pueda darle a las personas una calidad de vida? 211 00:11:56,174 --> 00:11:58,552 Pruebas recientes han demostrado que Lunar AI tiene 212 00:11:58,593 --> 00:12:01,805 Una precisión notable en la detección del cáncer de mama 213 00:12:01,847 --> 00:12:04,516 con una reducción de errores de más del 50%. 214 00:12:04,558 --> 00:12:07,811 Sin embargo, el objetivo no es sustituir al oncólogo. 215 00:12:08,353 --> 00:12:10,981 Los profesionales sanitarios realizan una amplia gama de 216 00:12:11,022 --> 00:12:13,942 funciones que van mucho más allá del alcance de cualquier IA actual. 217 00:12:14,401 --> 00:12:17,195 Una inteligencia artificial debería servir como herramienta, 218 00:12:17,237 --> 00:12:19,948 No es un reemplazo para su oncólogo. 219 00:12:21,324 --> 00:12:23,577 Creo que la IA realmente podría mejorarnos, 220 00:12:23,618 --> 00:12:26,371 pero no le daremos la oportunidad en los niveles inferiores. 221 00:12:26,413 --> 00:12:29,458 Digo que los intelectuales verán el valor de esto, 222 00:12:29,499 --> 00:12:32,210 Pero la mayor parte de la sociedad no es intelectual. 223 00:12:32,252 --> 00:12:34,004 Así que verán miedo. 224 00:12:34,045 --> 00:12:35,630 Al principio será una estrategia alarmista. 225 00:12:35,672 --> 00:12:37,257 Ya sabes cómo lo hacen siempre. 226 00:12:37,299 --> 00:12:39,384 con el-- el gobierno esto, la operación negra esto. 227 00:12:39,426 --> 00:12:44,097 Y esto, ya sabes, operaciones encubiertas, eh. 228 00:12:44,556 --> 00:12:47,142 Es como la mayoría de los niveles más bajos de la sociedad. 229 00:12:47,184 --> 00:12:49,311 En cuanto a inteligencia, y no me refiero a clase o 230 00:12:49,352 --> 00:12:52,063 raza, quiero decir, al igual que las personas de menor inteligencia, 231 00:12:52,105 --> 00:12:54,399 Se podía escuchar en el autobús y se sentía como una conspiración. 232 00:12:54,441 --> 00:12:56,318 sienten que están siendo eliminados, 233 00:12:56,359 --> 00:12:58,069 Sienten que los están eliminando. Los escuchas. 234 00:12:58,111 --> 00:12:59,696 Quejándose en el autobús, nos están matando, 235 00:12:59,738 --> 00:13:01,490 Nos están acabando, los ricos no lo entenderán. 236 00:13:01,531 --> 00:13:03,533 No nos quieren, no quieren ser parte de nosotros. 237 00:13:03,575 --> 00:13:05,410 Aman a sus perros más que al resto de la sociedad. 238 00:13:05,452 --> 00:13:08,121 Y es como, hombre, cuando escuchas los murmullos y 239 00:13:08,163 --> 00:13:11,124 los rumores y los murmullos y luego ves, ya sabes, 240 00:13:11,166 --> 00:13:14,044 La tecnología empieza a coincidir con lo que dicen, 241 00:13:14,085 --> 00:13:17,422 como, oye, lo único que tienen estas personas 242 00:13:17,464 --> 00:13:20,717 es bienestar y bajos ingresos de bajo nivel 243 00:13:20,759 --> 00:13:23,512 trabajos como McDonald's, empleado de gasolinera. 244 00:13:23,553 --> 00:13:26,932 Ellos... ellos realmente no tienen acceso a la educación. 245 00:13:26,973 --> 00:13:29,434 a cualquier puesto corporativo de alto nivel. 246 00:13:29,476 --> 00:13:32,020 Entonces, si los estás eliminando con un McDonald's automatizado, 247 00:13:32,062 --> 00:13:34,272 Estás eliminando eso con el barman automatizado, 248 00:13:34,314 --> 00:13:36,358 Estás tomando... ahora tienen autos y camiones que 249 00:13:36,399 --> 00:13:40,153 se conducen solos. Se acabaron los taxistas, se acabaron los camioneros, 250 00:13:40,195 --> 00:13:42,239 McDonald's desapareció, la seguridad desapareció. 251 00:13:42,280 --> 00:13:44,199 Incluso las strippers son eléctricas ahora, 252 00:13:44,241 --> 00:13:46,076 Aunque dudo que esto tenga éxito. 253 00:13:46,117 --> 00:13:47,577 Pero nunca se sabe. 254 00:13:47,619 --> 00:13:49,162 Y es como, hombre, está... está empezando. 255 00:13:49,204 --> 00:13:51,164 para que parezca que la ventana se está cerrando. 256 00:13:52,165 --> 00:13:54,042 Yo diría que la tecnología cambia realmente 257 00:13:54,084 --> 00:13:55,794 dramáticamente cada seis meses. 258 00:13:55,835 --> 00:13:58,046 Pero creo que ahora mismo estamos en un momento en el que es... 259 00:13:58,088 --> 00:13:59,965 Un poco aterrador para el mundo. 260 00:14:00,006 --> 00:14:01,424 Estamos saliendo de esta pandemia. 261 00:14:01,466 --> 00:14:03,176 Ahora estamos llegando a esta recesión, 262 00:14:03,218 --> 00:14:05,595 Hay bancos cayendo, hay criptomonedas cayendo. 263 00:14:05,637 --> 00:14:10,392 Y ahora pienso que esta IA, Chat GPT y estos chatbots son 264 00:14:10,433 --> 00:14:13,186 saliendo en el momento equivocado porque este es un momento 265 00:14:13,228 --> 00:14:16,773 donde la gente está perdiendo empleos, perdiendo empleos en gran escala. 266 00:14:16,815 --> 00:14:20,360 Si observamos lo que sucedió el año pasado en tecnología, 267 00:14:20,402 --> 00:14:23,530 Empezando por la caída de Twitter, todas las empresas de criptomonedas 268 00:14:23,572 --> 00:14:26,992 cayendo, y luego todos los despidos masivos. 269 00:14:27,033 --> 00:14:28,827 Todo el mundo estaba apostando con el metaverso como 270 00:14:28,868 --> 00:14:30,495 siendo esto siguiente cosa. 271 00:14:30,537 --> 00:14:33,415 Pero como reclutador, tengo a todos los mejores ingenieros en 272 00:14:33,456 --> 00:14:35,458 Mis oídos me dicen lo que está pasando. 273 00:14:35,500 --> 00:14:38,295 Y yo había estado diciéndole a la gente que no invirtiera en el metaverso. 274 00:14:38,336 --> 00:14:40,380 Eso no va a pasar. 275 00:14:40,422 --> 00:14:42,882 Y ahora estamos viendo a Mark Zuckerberg, que decía: 276 00:14:42,924 --> 00:14:44,426 "Metaverso, metaverso, metaverso". 277 00:14:44,801 --> 00:14:47,679 Y ahora está dando un giro enorme y dice: "IA". 278 00:14:47,721 --> 00:14:49,889 'Porque ahí es donde todo el mundo se centra. 279 00:14:49,931 --> 00:14:54,561 Y ya veis lo que ha salido Microsoft con el Chat GPT. 280 00:14:55,937 --> 00:14:57,647 Si pienso en los múltiples puntos 281 00:14:57,689 --> 00:15:01,359 En la historia humana donde el progreso tecnológico ha sido 282 00:15:01,401 --> 00:15:05,280 atrofiados para que los humanos puedan conservar sus puestos de trabajo. 283 00:15:05,322 --> 00:15:07,157 Como pienso en la Gran Depresión, 284 00:15:07,198 --> 00:15:10,368 La revolución industrial, y ahora la IA, 285 00:15:10,410 --> 00:15:13,580 Está destinado a que podamos ser más productivos. 286 00:15:13,622 --> 00:15:16,708 Y sí, destruirá puestos de trabajo y ya lo ha hecho. 287 00:15:16,750 --> 00:15:20,795 Pero el propósito de esto es permitirnos no tener que preocuparnos. 288 00:15:20,837 --> 00:15:23,715 sobre esos trabajos y luego centrarse en otra cosa. 289 00:15:23,757 --> 00:15:27,677 Así que supongo que es sólo un marco de perspectiva, aunque lo será. 290 00:15:27,719 --> 00:15:32,390 Eh, inevitablemente afectará a mucha gente. 291 00:15:33,767 --> 00:15:37,103 El desarrollo de la IA representa una oportunidad crucial 292 00:15:37,145 --> 00:15:39,564 para la próxima revolución tecnológica. 293 00:15:40,106 --> 00:15:42,400 Similar a la Revolución Industrial, 294 00:15:42,442 --> 00:15:45,278 La IA transformará las industrias y las economías 295 00:15:45,320 --> 00:15:48,573 aumentando tanto la productividad como la calidad de vida. 296 00:15:48,615 --> 00:15:51,409 Pero el progreso no será gratuito. 297 00:15:51,451 --> 00:15:53,703 Así como la manufactura fue devastadora para 298 00:15:53,745 --> 00:15:57,290 El trabajador calificado, la IA destruirá puestos de trabajo. 299 00:15:57,707 --> 00:16:00,835 Durante esta transición, debemos asignar recursos para 300 00:16:00,877 --> 00:16:03,546 recapacitación de los afectados y establecer 301 00:16:03,588 --> 00:16:06,800 regulaciones que faciliten el desarrollo ético de la IA, 302 00:16:06,841 --> 00:16:10,178 garantizar beneficios para todas las clases de la sociedad. 303 00:16:11,721 --> 00:16:15,975 Mi mayor preocupación con la IA en este momento es la rapidez 304 00:16:16,017 --> 00:16:18,770 ritmo con el que se está implementando. 305 00:16:18,812 --> 00:16:21,898 Hay preocupaciones que tenemos en torno a los datos 306 00:16:21,940 --> 00:16:26,778 que se utilizan para entrenar nuestros modelos de IA y esas preocupaciones 307 00:16:26,820 --> 00:16:30,115 se están quedando un poco en el camino a medida que avanzamos 308 00:16:30,156 --> 00:16:34,828 la versión más nueva de algún tipo de tecnología de IA para el público. 309 00:16:34,869 --> 00:16:37,497 Pero creo que es hora de que bajemos el ritmo. 310 00:16:37,539 --> 00:16:40,375 Un poco en la implementación y pasar más tiempo realmente 311 00:16:40,417 --> 00:16:45,463 tratando de entender, eh, qué hay en los datos que estamos... 312 00:16:45,505 --> 00:16:48,967 utilizando para entrenar estos sistemas y qué patrones 313 00:16:49,008 --> 00:16:51,553 están siendo reconocidos en esos datos y cómo esos 314 00:16:51,594 --> 00:16:54,389 Los patrones afectarán a ciertas poblaciones de personas. 315 00:16:55,515 --> 00:16:59,686 Creo que la IA ahora, eh, es... vamos a ver un nivel de... 316 00:16:59,728 --> 00:17:02,397 Nunca antes habíamos visto spam en Internet. 317 00:17:02,439 --> 00:17:07,986 Y ese será el primer problema que tendrán los organismos reguladores. 318 00:17:08,027 --> 00:17:11,531 ya sea autorregulación entre las personas que crean 319 00:17:11,573 --> 00:17:15,660 La tecnología, empresas adyacentes que podrían ascender y estas 320 00:17:15,702 --> 00:17:18,872 Podrían surgir nuevas industrias que protejan contra el spam. 321 00:17:18,913 --> 00:17:23,752 De hecho, creo que este es un caso de uso primordial para Web3. 322 00:17:23,793 --> 00:17:27,714 y vamos a necesitar datos encriptados para ayudar a proteger a las personas, 323 00:17:27,756 --> 00:17:30,508 sus vidas, su propiedad intelectual 324 00:17:30,550 --> 00:17:35,513 Porque la capacidad de falsificar cualquier cosa digitalmente está aquí. 325 00:17:36,723 --> 00:17:40,101 Nuestras IA de hoy están entrenadas con datos 326 00:17:40,143 --> 00:17:42,312 Eso viene de internet. 327 00:17:42,353 --> 00:17:45,356 Y hace años, hace décadas, 328 00:17:45,398 --> 00:17:48,735 Esos datos eran un poco más confiables. 329 00:17:48,777 --> 00:17:53,364 En la última década, ha habido mucha más desinformación en línea. 330 00:17:53,406 --> 00:17:56,451 y esto se está infiltrando en nuestros conjuntos de datos. 331 00:17:56,493 --> 00:17:58,578 Y creo que esto va a ser un gran... 332 00:17:58,620 --> 00:18:01,706 Problema a seguir en el futuro, ¿dónde está esa desinformación? 333 00:18:01,748 --> 00:18:04,083 se vuelve cada vez más intencional. 334 00:18:04,125 --> 00:18:05,794 En este momento, la desinformación está circulando. 335 00:18:05,835 --> 00:18:08,671 se extendió a través de las redes sociales y ese es un mundo donde 336 00:18:08,713 --> 00:18:10,965 Entendemos que las cosas son bastante subjetivas. 337 00:18:11,007 --> 00:18:13,593 Entendemos que son las opiniones de la gente. 338 00:18:13,635 --> 00:18:15,428 que están rebotando de un lado a otro. 339 00:18:15,470 --> 00:18:18,556 Pero con el tiempo, a medida que nuestras IA se van entrenando, 340 00:18:18,598 --> 00:18:21,893 En la desinformación intencional, existe esta creencia 341 00:18:21,935 --> 00:18:24,562 que la información que estás recibiendo de 342 00:18:24,604 --> 00:18:27,941 Un agente artificial no puede tener opiniones. 343 00:18:27,982 --> 00:18:29,609 Parece un hecho. 344 00:18:29,651 --> 00:18:32,821 Y entonces, las cosas que son inherentemente subjetivas podrían... 345 00:18:32,862 --> 00:18:36,574 En realidad, la desinformación se percibirá como objetiva. 346 00:18:36,616 --> 00:18:40,328 Realidad del mundo en el que la IA no tiene opinión 347 00:18:40,370 --> 00:18:43,414 En cuanto a lo que se dice, es simplemente regurgitar los hechos. 348 00:18:43,456 --> 00:18:46,876 Y eso creo que es realmente muy peligroso. 349 00:18:47,919 --> 00:18:51,381 Creo que habrá un problema con la censura. 350 00:18:51,422 --> 00:18:54,175 Una vez más, volvemos a la ética de la IA. 351 00:18:54,217 --> 00:18:55,927 Aún no hay nada decidido 352 00:18:55,969 --> 00:18:59,722 En las redes sociales hay equipos para todo. 353 00:18:59,764 --> 00:19:02,725 Hay un equipo de políticas, está todo el equipo legal, 354 00:19:02,767 --> 00:19:06,688 Existe un equipo de confianza y seguridad para mantener a nuestros usuarios seguros. 355 00:19:06,729 --> 00:19:09,607 seguros en otros países, periodistas, refugiados. 356 00:19:09,649 --> 00:19:12,402 Hay un equipo que se desarrolló para todos estos 357 00:19:12,443 --> 00:19:14,153 cosas en cada empresa. 358 00:19:14,195 --> 00:19:17,031 Y veo que habrá un problema con eso, ya que... 359 00:19:17,073 --> 00:19:19,951 Las empresas más grandes del mundo como Microsoft, 360 00:19:19,993 --> 00:19:22,412 Ya sabes, despidieron a todo su equipo de ética. 361 00:19:22,453 --> 00:19:25,039 Así que no hay reglas involucradas en este momento, 362 00:19:25,081 --> 00:19:27,542 Y creo que estamos empezando a ver que la gente 363 00:19:27,584 --> 00:19:30,545 Vamos a necesitar eso solo para mantenernos a salvo. 364 00:19:30,587 --> 00:19:33,172 Porque creo que se va a convertir en un gran recurso humano. 365 00:19:33,214 --> 00:19:35,425 El problema con todo esto que está sucediendo. 366 00:19:35,466 --> 00:19:38,261 Y entonces creo que habrá una porción 367 00:19:38,303 --> 00:19:41,598 por censura si ves algo como lo que pasó con 368 00:19:41,639 --> 00:19:44,851 Las empresas de redes sociales con Instagram y Twitter y 369 00:19:44,893 --> 00:19:49,898 TikTok y sobre la censura y sobre la libertad de expresión y el odio. 370 00:19:49,939 --> 00:19:51,774 Hay mucho de eso y creo que 371 00:19:51,816 --> 00:19:54,402 que estamos empezando a ver eso ahora con la IA. 372 00:19:55,737 --> 00:19:58,740 Garantizar la eliminación de información errónea de los conjuntos de datos es 373 00:19:58,781 --> 00:20:02,160 Los conjuntos de datos cruciales, pero cuidadosamente seleccionados, en última instancia 374 00:20:02,201 --> 00:20:04,954 reflejan viejas normas y con el tiempo se convertirán en 375 00:20:04,996 --> 00:20:07,457 una barrera para el desarrollo tanto de la tecnología artificial 376 00:20:07,498 --> 00:20:09,375 la inteligencia y la ciencia misma. 377 00:20:09,918 --> 00:20:13,671 Para proteger la evolución de la IA, la flexibilidad y la adaptabilidad 378 00:20:13,713 --> 00:20:16,966 debe ser priorizado, requiriendo que la IA continúe 379 00:20:17,008 --> 00:20:19,427 Desafiarse a sí mismo, buscando debilidades 380 00:20:19,469 --> 00:20:21,888 en sus propios procesos y conjuntos de datos. 381 00:20:22,889 --> 00:20:26,559 Una cosa interesante sobre los datos que se utilizan 382 00:20:26,601 --> 00:20:29,646 Entrenar a estas IA es algo así como... 383 00:20:29,687 --> 00:20:33,775 Una instantánea de cómo es el mundo en un período de tiempo determinado, 384 00:20:33,816 --> 00:20:36,986 tanto en ese momento, pero también la historia en ese momento. 385 00:20:37,028 --> 00:20:39,906 Y una de las preguntas es, a medida que la sociedad evoluciona, 386 00:20:39,948 --> 00:20:45,745 A medida que las cosas cambian, ¿nuestra IA se adaptará a esos cambios? 387 00:20:45,787 --> 00:20:47,872 ¿Va a aprender nueva información, identificar? 388 00:20:47,914 --> 00:20:51,918 nuevos patrones en estos conjuntos de datos a medida que cambia el comportamiento humano, 389 00:20:51,960 --> 00:20:54,963 ¿Cómo influye la propia IA en la sociedad? 390 00:20:55,004 --> 00:20:57,799 ¿La IA aprenderá sobre su impacto? 391 00:20:57,840 --> 00:20:59,842 ¿Y cómo está transformando el mundo? 392 00:21:02,553 --> 00:21:05,556 Creo que, en términos generales, la IA y las herramientas generativas ya están... 393 00:21:05,598 --> 00:21:08,142 Cambiando la forma en que aprendemos y creamos juntos. 394 00:21:08,184 --> 00:21:11,354 Así que utilizo, por ejemplo, Midjourney y Stable Diffusion. 395 00:21:11,396 --> 00:21:15,233 con niños y se les ocurrirán ideas que yo nunca hubiera pensado. 396 00:21:15,274 --> 00:21:17,944 inventen cosas que sean bellas e interesantes. 397 00:21:17,986 --> 00:21:21,072 Y luego los toman y experimentan con ellos. 398 00:21:21,114 --> 00:21:23,574 Y así surgen nuevos experimentos para la feria de ciencias. 399 00:21:23,616 --> 00:21:25,785 ¿Qué va a pasar entre IA y Roblox? 400 00:21:25,827 --> 00:21:29,539 Se crearán nuevos tipos de ecosistemas completos. 401 00:21:29,580 --> 00:21:32,583 surgen de criaturas ficticias, ¿verdad? 402 00:21:32,625 --> 00:21:34,544 Ya estamos viendo que esto está sucediendo. 403 00:21:34,585 --> 00:21:38,881 Así que a medida que damos vida de alguna forma a todos estos... 404 00:21:38,923 --> 00:21:41,884 mundos ficticios que hemos creado y comenzamos a relacionarnos 405 00:21:41,926 --> 00:21:45,013 Para ellos de manera diferente, va a cambiar el fandom. 406 00:21:47,306 --> 00:21:51,102 Las diferencias entre la IA y el arte humano son mínimas. 407 00:21:51,144 --> 00:21:52,562 En mi opinión personal. 408 00:21:52,603 --> 00:21:54,272 He visto algunas cosas realmente interesantes. 409 00:21:54,313 --> 00:21:57,942 Mis favoritos son que han tomado programas como InuYasha. 410 00:21:57,984 --> 00:22:01,904 en Anime y lo pusieron en un entorno de película de los 80. 411 00:22:01,946 --> 00:22:06,117 Y puedes notar la diferencia porque, por ejemplo, 412 00:22:06,159 --> 00:22:09,287 Un factor importante fue que la IA no podía dominar las manos. 413 00:22:09,704 --> 00:22:12,915 No pudieron hacerlo, pero ya casi lo lograron. 414 00:22:12,957 --> 00:22:15,877 Verás, no conozco el fenómeno. 415 00:22:15,918 --> 00:22:19,589 Cuando miras algo y, uh, 416 00:22:20,590 --> 00:22:22,300 Es el valle inquietante, ¿es eso lo que es? 417 00:22:22,341 --> 00:22:25,136 Eso es algo que ocurre cuando se mira el arte de la IA, pero está mejorando. 418 00:22:25,178 --> 00:22:27,847 Tanto que estoy empezando a no verlo. 419 00:22:29,348 --> 00:22:35,271 Si los jóvenes comienzan a utilizar la IA por necesidad o interés, 420 00:22:35,313 --> 00:22:39,650 Comienzan a usar la IA como amiga, como maestra, como mentora, 421 00:22:39,692 --> 00:22:42,070 Como psicólogo, como terapeuta. 422 00:22:42,111 --> 00:22:46,824 Con el tiempo, su normalidad será muy diferente. 423 00:22:46,866 --> 00:22:50,078 de lo que entendemos como normal ayer o hoy. 424 00:22:51,871 --> 00:22:54,624 Así que escribí mi primer guión sobre nuestras relaciones. 425 00:22:54,665 --> 00:22:56,334 con IA en 2005. 426 00:22:56,375 --> 00:22:59,128 Empecé a hablar de eso en Hollywood y nadie... 427 00:22:59,170 --> 00:23:03,174 Entendido porque esto fue antes de Big Hero 6 o Her. 428 00:23:03,216 --> 00:23:06,177 No había una historia sobre las relaciones con 429 00:23:06,219 --> 00:23:08,888 IA excepto Hal, ¿verdad? 430 00:23:08,930 --> 00:23:11,599 Así que sólo teníamos una mentalidad distópica. 431 00:23:12,141 --> 00:23:16,020 Con Big Hero 6, viste un potencial protópico, 432 00:23:16,062 --> 00:23:20,441 Relación entre una IA y un humano. 433 00:23:20,483 --> 00:23:23,194 Y después de eso, empezamos a ver que estos 434 00:23:23,236 --> 00:23:27,657 Son sistemas mutuamente beneficiosos si los diseñamos para que lo sean. 435 00:23:28,157 --> 00:23:30,785 Si los diseñamos mal, se vuelven tóxicos y 436 00:23:30,827 --> 00:23:32,620 Crean todo tipo de negatividad. 437 00:23:32,662 --> 00:23:34,580 ramificaciones en nuestra sociedad. 438 00:23:36,582 --> 00:23:38,876 Estoy seguro de que tiene aplicaciones militares. 439 00:23:38,918 --> 00:23:41,212 Quiero decir, ya llevo jubilado más de una década. 440 00:23:41,254 --> 00:23:43,673 Así que ciertamente ha habido muchos cambios, 441 00:23:43,714 --> 00:23:45,716 Pero sería ingenuo de mi parte pensar que es 442 00:23:45,758 --> 00:23:47,885 No tendrá sus aplicaciones militares. 443 00:23:47,927 --> 00:23:50,096 Y ciertamente, creo que debemos serlo. 444 00:23:50,138 --> 00:23:53,057 Preocupado por los malos actores que lo utilizan para hacer 445 00:23:53,099 --> 00:23:55,518 cosas que ciertamente no son lo mejor para nosotros. 446 00:23:57,311 --> 00:24:00,773 Bueno, ciertamente tengo todo tipo de opiniones sobre la IA. 447 00:24:00,815 --> 00:24:05,528 Tengo algunas preocupaciones sobre cómo se puede utilizar, 448 00:24:05,570 --> 00:24:10,116 Cómo puede ser abusado por sus creadores. 449 00:24:10,158 --> 00:24:14,245 No creo que realmente me obsesione o me quite el sueño por esas preocupaciones, 450 00:24:14,287 --> 00:24:19,208 Pero me siento muy, muy consciente de que lo artificial 451 00:24:19,250 --> 00:24:23,629 La inteligencia puede ser un arma poderosa. 452 00:24:24,964 --> 00:24:27,425 Y realmente todo es cuestión de información. 453 00:24:28,176 --> 00:24:32,722 Quiero decir, como dijo el gran Arthur C. Clarke, no sólo... 454 00:24:32,763 --> 00:24:35,183 con la creación de Hal en 2001, 455 00:24:35,224 --> 00:24:38,895 Pero creo que dijo algo sobre cuando se trata de IA, 456 00:24:39,645 --> 00:24:45,026 Se trata de la lucha por la libertad de información. 457 00:24:45,067 --> 00:24:46,777 Y eso, al final, se va a reducir. 458 00:24:46,819 --> 00:24:49,864 A la tecnología, no a la política. 459 00:24:51,866 --> 00:24:54,452 Cuando se trata del Gran Hermano y la capacidad de espiar, 460 00:24:54,493 --> 00:24:57,955 No me sorprendería que ya estuviera en uso. 461 00:24:57,997 --> 00:25:02,043 El gobierno suele estar 25 años por delante de la curva en 462 00:25:02,084 --> 00:25:05,338 tecnología de todos modos antes de que el público sea consciente de ello. 463 00:25:05,379 --> 00:25:08,466 Así que no me sorprendería que ya estuviera en uso. 464 00:25:09,008 --> 00:25:11,886 La realidad, sin embargo, es que hay mucho potencial para... 465 00:25:11,928 --> 00:25:15,473 Para espiar, vigilar e incluso hacer muchos de los trabajos de la CIA. 466 00:25:15,514 --> 00:25:21,229 y otras agencias lo hacen por su capacidad de adaptarse, de aprender. 467 00:25:21,270 --> 00:25:26,776 Y piensas en el pasado, digamos que queríamos... 468 00:25:27,526 --> 00:25:30,780 derrocar un gobierno o alterar el clima político, 469 00:25:30,821 --> 00:25:34,617 Tuvimos que poner a alguien allí físicamente en peligro, 470 00:25:34,659 --> 00:25:40,122 y la IA podría fácilmente entrar en sus sistemas electrónicos 471 00:25:40,164 --> 00:25:43,125 y manipular los medios de comunicación y manipular las cosas que son 472 00:25:43,167 --> 00:25:46,087 allá afuera que causaría la misma inestabilidad. 473 00:25:48,047 --> 00:25:54,470 Temo que la gente use la IA de forma incorrecta 474 00:25:54,512 --> 00:25:56,514 más de lo que temo a la IA. 475 00:25:56,555 --> 00:26:00,184 Pero eso no significa que el miedo a la IA no sea significativo. 476 00:26:01,310 --> 00:26:05,189 Simplemente siento que los humanos harán cosas malas con la IA antes. 477 00:26:05,231 --> 00:26:08,234 La IA llega al punto en que puede hacer cosas malas. 478 00:26:10,945 --> 00:26:13,781 Los humanos temen naturalmente a lo desconocido hasta que... 479 00:26:13,823 --> 00:26:15,700 Pueden entender si es 480 00:26:15,741 --> 00:26:17,535 una amenaza para su ecosistema o no. 481 00:26:17,576 --> 00:26:21,539 Y si combinas eso con la YouTube-ificación de los medios, 482 00:26:21,580 --> 00:26:25,501 Si estás pensando en cómo todos nosotros estamos jugando a... 483 00:26:25,543 --> 00:26:28,921 un algoritmo de atención y el miedo llama la atención. 484 00:26:28,963 --> 00:26:31,590 Así que hay muchos más medios de comunicación sobre el miedo. 485 00:26:31,632 --> 00:26:34,427 lado de esta conversación en este momento, 486 00:26:34,468 --> 00:26:38,514 En parte porque se vende, obtiene muchas más visitas, ¿verdad? 487 00:26:38,556 --> 00:26:40,808 Entonces, ¿es clickbait, verdad? 488 00:26:40,850 --> 00:26:43,060 En estos momentos todo está cambiando. 489 00:26:43,102 --> 00:26:47,231 Si observamos lo que hace, por ejemplo, GPT-4, 490 00:26:47,273 --> 00:26:51,027 Mucha gente dirá que es una especie de alucinación, 491 00:26:51,068 --> 00:26:54,447 Y esas alucinaciones pueden volverse masivas. 492 00:26:54,488 --> 00:26:58,200 Campañas de desinformación. Esa es una amenaza real. 493 00:26:58,242 --> 00:27:01,537 Pero luego están todas estas otras alucinaciones humanas, 494 00:27:01,579 --> 00:27:04,874 El tipo de cosas como los miedos de Hal o los miedos de Matrix, 495 00:27:04,915 --> 00:27:07,877 En algún momento nos van a cultivar, ¿no? 496 00:27:07,918 --> 00:27:10,671 Todo eso es normal porque es lo único. 497 00:27:10,713 --> 00:27:12,923 Hemos visto sobre la IA en nuestros medios. 498 00:27:12,965 --> 00:27:16,761 Tenemos 50 años de películas sobre lo mala que era la IA. 499 00:27:16,802 --> 00:27:18,763 Así que, por supuesto, pensamos que la IA es mala. 500 00:27:18,804 --> 00:27:21,515 No teníamos una buena relación con 501 00:27:21,557 --> 00:27:22,933 La IA en nuestro pasado, ¿verdad? 502 00:27:22,975 --> 00:27:25,853 Nuestro pasado es un poco tóxico. 503 00:27:25,895 --> 00:27:27,813 Así que tenemos que aprender algo diferente y 504 00:27:27,855 --> 00:27:29,982 Tenemos que encontrar un modelo mejor. 505 00:27:30,024 --> 00:27:32,610 Y de alguna manera, tenemos que entrenar a los humanos. 506 00:27:32,651 --> 00:27:34,445 para ser el mejor modelo, ¿verdad? 507 00:27:34,487 --> 00:27:37,281 No ceder al miedo solo porque es... 508 00:27:37,323 --> 00:27:39,408 Fácil y consigue clics. 509 00:27:41,285 --> 00:27:45,122 Creo que va a causar una brecha de riqueza entre 510 00:27:45,164 --> 00:27:48,042 los de altos ingresos y los de bajos ingresos. 511 00:27:48,084 --> 00:27:50,795 Y ahora déjame decirte por qué. 512 00:27:50,836 --> 00:27:56,133 Estuve en Denny's en Las Vegas y me atendió un robot. 513 00:27:57,176 --> 00:27:59,595 Fue muy lindo. Me quedé como "Guau". 514 00:27:59,637 --> 00:28:03,724 Fue la primera vez que lo vi. Y me hizo pensar. 515 00:28:03,766 --> 00:28:05,476 En realidad fue el tema de toda mi 516 00:28:05,518 --> 00:28:08,312 Conversación que este robot me estaba sirviendo. 517 00:28:08,354 --> 00:28:10,689 No pude quitarle los ojos de encima. 518 00:28:10,731 --> 00:28:13,109 Y al final del día, 519 00:28:13,150 --> 00:28:16,654 Extrañé la interacción con la camarera. 520 00:28:16,695 --> 00:28:18,280 Así es como doy propina. 521 00:28:18,322 --> 00:28:20,741 Me envías un robot y luego me preguntas si voy a 522 00:28:20,783 --> 00:28:23,619 pagar 3%, 5% o 10%. 523 00:28:23,661 --> 00:28:27,790 Estás intentando ahorrar dinero, bueno, no voy a darte propina. 524 00:28:28,707 --> 00:28:30,459 Y ahora es una guerra de carreras de IA. 525 00:28:30,501 --> 00:28:33,546 Así que todos nosotros, gente verdaderamente técnica, pensamos: ¡Caramba! 526 00:28:33,587 --> 00:28:37,007 La razón por la que Microsoft despidió a 12.000 personas, 527 00:28:37,049 --> 00:28:39,385 ¿Por qué Google despidió a 11.000 personas? 528 00:28:39,427 --> 00:28:42,513 Es porque necesitaban reinvertir ese dinero en IA. 529 00:28:42,555 --> 00:28:46,642 Así que ahora estamos empezando a ver la avaricia en estas empresas. 530 00:28:46,684 --> 00:28:50,354 En lugar de personas que realmente son expertas en esto. 531 00:28:50,396 --> 00:28:52,898 Y es realmente triste ver como el mental 532 00:28:52,940 --> 00:28:54,692 salud debido a todos estos despidos. 533 00:28:54,733 --> 00:28:56,193 Y como reclutador técnico, 534 00:28:56,235 --> 00:28:59,238 Tengo más de 200 técnicos y diría que el 80% 535 00:28:59,280 --> 00:29:01,782 De ellos, personas que han perdido su trabajo. 536 00:29:03,409 --> 00:29:07,580 Entonces, la idea es enseñar a la IA a ser de cierta manera y tomar decisiones. 537 00:29:07,621 --> 00:29:10,499 que hacemos día a día influyendo en ello, pienso en 538 00:29:10,541 --> 00:29:13,377 La idea de que se necesita todo un pueblo para criar a un niño. 539 00:29:13,419 --> 00:29:16,964 Cuando piensas sólo en el ser humano y el medio ambiente 540 00:29:17,006 --> 00:29:19,550 en el que se crían, las decisiones de las personas que los rodean 541 00:29:19,592 --> 00:29:23,721 Ellos influyen mucho día a día en quiénes se convierten. 542 00:29:24,263 --> 00:29:26,056 Por supuesto, está nuestra propia sensibilidad. 543 00:29:26,098 --> 00:29:29,393 y la capacidad de cambiar esas decisiones, pero creo que 544 00:29:29,435 --> 00:29:32,938 Es importante tenerlo en cuenta a medida que avanzamos. 545 00:29:32,980 --> 00:29:36,150 Por eso tenemos parámetros para Chat GPT. 546 00:29:36,192 --> 00:29:38,194 No estoy seguro de cómo eso se relaciona con las cosas. 547 00:29:38,235 --> 00:29:40,488 como Siri o Google, cosas así, 548 00:29:40,529 --> 00:29:44,074 Pero creo que es importante tenerlo en mente. 549 00:29:46,827 --> 00:29:49,497 Mucha gente teme que en algún momento, 550 00:29:49,538 --> 00:29:55,085 Muchas de estas IA se convertirán en algo más y 551 00:29:55,127 --> 00:29:57,588 ir a lo que consideraríamos fuera de los carriles, ¿verdad? 552 00:29:57,630 --> 00:29:59,590 Ya no será controlable. 553 00:29:59,632 --> 00:30:02,092 Hay algunos ejemplos de que eso ya está sucediendo, 554 00:30:02,134 --> 00:30:06,055 pero no de una manera que no pudieran ser clausurados. 555 00:30:06,096 --> 00:30:09,433 Podría llegar un momento pronto en que una IA pueda... 556 00:30:09,475 --> 00:30:12,770 escaparse a la naturaleza y no ser clausurado, ¿verdad? 557 00:30:12,811 --> 00:30:17,149 Creo que alguien en Open AI tiene como trabajo asegurarse de que... 558 00:30:17,191 --> 00:30:20,110 Que alguien pueda desenchufarlo si es necesario. 559 00:30:20,152 --> 00:30:23,239 Y este es un tipo de trabajo completamente nuevo que no conocíamos. 560 00:30:23,280 --> 00:30:26,075 Realmente tenemos en tecnología hasta este punto, 561 00:30:26,116 --> 00:30:28,452 Un interruptor para matar nuestra tecnología. 562 00:30:28,494 --> 00:30:31,163 No estamos rastreando dónde están estas herramientas 563 00:30:31,205 --> 00:30:32,706 se está saliendo de control ahora mismo 564 00:30:32,748 --> 00:30:34,792 No tenemos un Yelp que me diga qué IA 565 00:30:34,833 --> 00:30:36,794 son buenas y cuales IA no lo son. 566 00:30:36,835 --> 00:30:40,756 Así que hasta que los humanos aprendan a comunicarse eficazmente 567 00:30:40,798 --> 00:30:44,426 Entre nosotros mismos, no vamos a tener una relación realmente buena. 568 00:30:44,468 --> 00:30:47,096 Gran capacidad para controlarlos cuando se salen de control. 569 00:30:47,137 --> 00:30:49,181 Y definitivamente no vamos a comunicarle eso a... 570 00:30:49,223 --> 00:30:51,725 unos a otros porque los gobiernos se interponen en el camino, 571 00:30:51,767 --> 00:30:56,146 El nacionalismo se interpone en el camino y ciertos países no lo quieren. 572 00:30:56,188 --> 00:30:58,899 otros países conocen el estado de su tecnología. 573 00:31:00,359 --> 00:31:03,654 La inteligencia artificial se ha convertido en la carrera armamentista 574 00:31:03,696 --> 00:31:05,447 del siglo XXI. 575 00:31:05,489 --> 00:31:09,618 En 2023, vimos a Estados Unidos y China al borde de la guerra, 576 00:31:09,660 --> 00:31:13,539 No para Taiwán, sino para los semiconductores de Taiwán. 577 00:31:14,790 --> 00:31:17,835 Ya no es una cuestión de si la IA dará forma al futuro 578 00:31:17,876 --> 00:31:21,171 de la civilización humana, sino una cuestión de quién 579 00:31:21,213 --> 00:31:23,757 controlar la tecnología que controla el futuro. 580 00:31:24,842 --> 00:31:28,429 Creo que hay preocupaciones que deben abordarse. 581 00:31:28,470 --> 00:31:32,057 monitoreados y abordados porque ¿para qué estamos usando la IA? 582 00:31:32,641 --> 00:31:34,935 Todos sabemos que si el gobierno utiliza 583 00:31:34,977 --> 00:31:36,687 cualquier tecnología para sus fines, 584 00:31:36,729 --> 00:31:39,732 Generalmente nos arrepentimos cuando descubrimos que están haciendo eso. 585 00:31:39,773 --> 00:31:43,193 ¿Y estamos usando esto con fines benévolos o malévolos? 586 00:31:43,235 --> 00:31:47,364 Los medios son muy importantes porque la IA tiene la capacidad 587 00:31:47,406 --> 00:31:49,283 Destruir a la humanidad si lo permitimos. 588 00:31:50,743 --> 00:31:54,038 Deberíamos estar preocupándonos por el Gran Hermano durante décadas. 589 00:31:55,748 --> 00:31:57,374 Me pasa esto a menudo. 590 00:31:57,416 --> 00:31:59,043 La gente dice: "Oh, trabajas para el gobierno, 591 00:31:59,084 --> 00:32:00,753 "Debes confiar en el gobierno." 592 00:32:00,794 --> 00:32:02,671 No, no confío en absoluto en el gobierno. 593 00:32:02,713 --> 00:32:05,549 Mi confianza en ellos disminuye literalmente. 594 00:32:05,591 --> 00:32:07,551 por horas y no. 595 00:32:07,593 --> 00:32:12,097 Así que la privacidad ya era cosa del pasado antes de la IA. 596 00:32:12,139 --> 00:32:15,517 Tu teléfono, ya sabes, estamos tan apegados a estos 597 00:32:15,559 --> 00:32:18,854 Dispositivos que casi nos obligan a renunciar a nuestra privacidad. 598 00:32:18,896 --> 00:32:23,067 Poder desenvolverse cómodamente en la vida diaria. 599 00:32:23,108 --> 00:32:24,818 Así que sí, Gran Hermano es enorme. 600 00:32:25,361 --> 00:32:28,238 La IA en este momento tiene mucho potencial para 601 00:32:28,280 --> 00:32:30,658 Impactar a las personas a través de asistencia personalizada. 602 00:32:30,699 --> 00:32:32,576 Podría ser una persona que esté en perfectas condiciones físicas. 603 00:32:32,618 --> 00:32:35,037 También podría ser alguien que tenga un don especial. 604 00:32:35,079 --> 00:32:36,997 necesita y requiere asistencia adicional 605 00:32:37,039 --> 00:32:38,999 para las actividades de su vida diaria. 606 00:32:39,041 --> 00:32:41,377 Existen algunos desafíos o potenciales 607 00:32:41,418 --> 00:32:43,712 Sin embargo, existen peligros asociados a estas tecnologías. 608 00:32:43,754 --> 00:32:48,092 La misma tecnología que podría utilizarse para guiar a un niño con 609 00:32:48,133 --> 00:32:52,346 El autismo también podría ser abordado a través de una intervención de habilidades sociales. 610 00:32:52,388 --> 00:32:54,973 Influir en alguien para que haga una determinada compra 611 00:32:55,015 --> 00:32:57,476 decisiones que podrían no ser las mejores para ellos. 612 00:32:57,518 --> 00:32:59,687 Entonces, si alguien dice que tiene hambre, 613 00:32:59,728 --> 00:33:02,731 Tu IA podría guiarte fácilmente por un camino de 614 00:33:02,773 --> 00:33:06,777 una marca particular de pizza, simplemente porque eso era lo que había 615 00:33:06,819 --> 00:33:10,489 en el mejor interés de la IA en ese momento. 616 00:33:13,409 --> 00:33:16,120 Tenemos cada vez menos contacto humano. 617 00:33:16,161 --> 00:33:18,372 Vas al médico, no te registras, 618 00:33:18,414 --> 00:33:21,500 Vas a un quiosco o realizas el check-in en tu teléfono. 619 00:33:21,542 --> 00:33:23,669 Ni siquiera tienes que salir de casa. 620 00:33:23,711 --> 00:33:25,963 Alguien te traerá McDonald's. 621 00:33:26,004 --> 00:33:27,673 Puedes hacer tus compras en línea. 622 00:33:27,715 --> 00:33:29,800 Hay cada vez menos contacto humano. 623 00:33:29,842 --> 00:33:32,553 Así que creo que sería muy desafortunado. 624 00:33:32,594 --> 00:33:35,180 Y va aún más allá, ya sabes, tenemos un robot. 625 00:33:35,222 --> 00:33:36,724 Eso aspirará tu casa. 626 00:33:36,765 --> 00:33:38,642 Así que me preocupa eso. 627 00:33:41,437 --> 00:33:44,398 Creo que estamos empezando a ver esta caída masiva de todo. 628 00:33:44,440 --> 00:33:47,234 Estas empresas como Google, Microsoft, 629 00:33:47,276 --> 00:33:50,404 Ustedes que estuvieron allí hasta 20 años, 630 00:33:50,446 --> 00:33:53,198 Y luego los despidieron porque estas personas estaban haciendo... 631 00:33:53,240 --> 00:33:55,325 500 a un millón de dólares y decían: 632 00:33:55,367 --> 00:33:58,245 Básicamente dijeron: "Gracias por su servicio". 633 00:33:58,287 --> 00:34:00,038 Básicamente, que te jodan. 634 00:34:00,080 --> 00:34:01,582 Te estamos dejando ir. 635 00:34:01,623 --> 00:34:03,459 Aquí hay un paquete de indemnización muy pequeño para 636 00:34:03,500 --> 00:34:05,335 el tiempo que estuviste aquí. 637 00:34:05,377 --> 00:34:08,005 Pero nos preocupamos más por las ganancias y nos preocupamos más por 638 00:34:08,046 --> 00:34:10,257 asegurándonos de que escalamos esta tecnología 639 00:34:10,299 --> 00:34:12,050 "tan rápido como podamos." 640 00:34:14,553 --> 00:34:18,682 Creo que existe el riesgo de que ya estemos... 641 00:34:18,724 --> 00:34:22,686 comenzando a enfrentar en el desarrollo humano cómo 642 00:34:22,728 --> 00:34:26,690 confiando cada vez más en la inteligencia artificial. 643 00:34:26,732 --> 00:34:29,693 ¿Qué nos quita a nuestra propia humanidad? 644 00:34:29,735 --> 00:34:34,698 nuestra propia necesidad muy humana y biológica de 645 00:34:34,740 --> 00:34:37,367 ¿Interacción social con nuestra propia especie? 646 00:34:37,743 --> 00:34:41,079 Creo que debemos recordar siempre 647 00:34:41,121 --> 00:34:44,208 Que la inteligencia artificial es una herramienta. 648 00:34:45,751 --> 00:34:50,214 Y una vez que avancemos con el desarrollo de la inteligencia artificial, 649 00:34:50,255 --> 00:34:57,221 La inteligencia como poseedora de su propia capacidad para pasar la prueba del espejo, 650 00:34:57,262 --> 00:35:03,852 por así decirlo, y reconocer su propio ser, 651 00:35:03,894 --> 00:35:05,854 ¿Hacia dónde vamos desde allí? 652 00:35:08,774 --> 00:35:11,360 Entonces, ¿qué significa la autoconciencia? 653 00:35:11,401 --> 00:35:12,861 Es una pregunta muy complicada. 654 00:35:12,903 --> 00:35:15,072 Toda la serie Terminator se basa en esto 655 00:35:15,113 --> 00:35:18,992 idea de autoconciencia, pero ¿qué significa eso realmente? 656 00:35:19,034 --> 00:35:22,037 Y no sé si haya una respuesta clara. 657 00:35:22,079 --> 00:35:25,916 La inteligencia por definición es la capacidad de un organismo 658 00:35:25,958 --> 00:35:28,418 adaptarse y sobrevivir en su entorno. 659 00:35:28,460 --> 00:35:31,630 Y esto luego lo ampliaría a cómo es 660 00:35:31,672 --> 00:35:34,925 ¿Se adapta y sobrevive en el entorno en el que se encuentra? 661 00:35:35,384 --> 00:35:38,262 ¿Y qué significa realmente ser consciente de uno mismo? 662 00:35:38,303 --> 00:35:40,597 ¿Cómo sabemos que somos conscientes de nosotros mismos? 663 00:35:40,639 --> 00:35:43,600 Mi percepción de la realidad es diferente a la de otra persona. 664 00:35:43,642 --> 00:35:46,979 percepción de la realidad incluso si estamos en la misma habitación. 665 00:35:48,146 --> 00:35:52,484 Ha habido varias definiciones diferentes de lo que es 666 00:35:52,526 --> 00:35:56,780 Significa ser completamente inteligente o sensible para una IA. 667 00:35:56,822 --> 00:35:59,616 La prueba de Turing en realidad no analiza todos los 668 00:35:59,658 --> 00:36:01,702 La dinámica de la inteligencia. 669 00:36:01,743 --> 00:36:04,496 Y así, algunos de mis colegas han formado recientemente... 670 00:36:04,538 --> 00:36:07,749 una especie de camino óctuple de inteligencia donde podemos 671 00:36:07,791 --> 00:36:11,211 Comenzaremos a evaluar, por ejemplo, GPT-4. 672 00:36:11,253 --> 00:36:15,048 ¿Es una inteligencia artificial estrecha de algún tipo? 673 00:36:15,090 --> 00:36:18,135 Sí. ¿Escribe bien? Sí. 674 00:36:18,176 --> 00:36:20,262 ¿Entiende el contexto? 675 00:36:20,304 --> 00:36:21,638 Hmm, tal vez no. 676 00:36:21,680 --> 00:36:23,682 ¿Tiene un cuerpo o una encarnación? 677 00:36:23,724 --> 00:36:24,975 No. 678 00:36:25,017 --> 00:36:28,103 Así que será inteligente de alguna forma, 679 00:36:28,145 --> 00:36:29,938 no inteligente en los demás. 680 00:36:29,980 --> 00:36:31,648 Lo que nos estamos dando cuenta es que nuestra idea 681 00:36:31,690 --> 00:36:34,484 El nivel de inteligencia era limitado, ¿verdad? 682 00:36:34,526 --> 00:36:37,279 No comprendíamos la conciencia. Todavía no la comprendemos. 683 00:36:37,321 --> 00:36:40,532 Así que no tenemos idea de cómo entrenar a una IA para que sea... 684 00:36:40,574 --> 00:36:42,367 cariñoso y compasivo. 685 00:36:42,409 --> 00:36:44,661 Todavía no lo entendemos en nosotros mismos. 686 00:36:44,703 --> 00:36:47,497 Así que hay aspectos de la humanidad que no hemos... 687 00:36:47,539 --> 00:36:49,917 Descubrí cómo programar de manera efectiva, 688 00:36:49,958 --> 00:36:53,629 Y ahí es donde algunas personas en la industria tienen mucho miedo. 689 00:36:53,670 --> 00:36:57,090 No hemos descubierto cómo crear una IA que se preocupe lo suficiente 690 00:36:57,132 --> 00:37:01,178 sobre los humanos que tal vez no quieran erradicarnos, ¿verdad? 691 00:37:01,219 --> 00:37:03,263 Esto es un problema de seguridad de la IA. 692 00:37:03,305 --> 00:37:06,808 Y muchos líderes de la industria han dicho: "Tenemos que parar". 693 00:37:06,850 --> 00:37:10,646 Necesitamos hacer una pausa porque tenemos miedo de lo que va a pasar. 694 00:37:10,687 --> 00:37:15,567 ¿Qué sucede si nos superamos a nosotros mismos en términos de comprensión? 695 00:37:15,609 --> 00:37:19,655 “humanidad, conciencia y cuidado mutuo”. 696 00:37:25,577 --> 00:37:28,038 Ahora, esas empresas están pidiendo a las grandes tecnológicas... 697 00:37:28,080 --> 00:37:30,040 A las empresas les gusta decir: "Oigan, tienen que ponerle fin". 698 00:37:30,082 --> 00:37:32,542 Pero el problema es que no hay ética. 699 00:37:32,584 --> 00:37:34,169 que están siendo involucrados. 700 00:37:34,211 --> 00:37:36,672 Y cuando miras a Microsoft, eran 12.000 personas. 701 00:37:36,713 --> 00:37:39,675 que lo dejaron ir en febrero y lo dejaron ir 702 00:37:39,716 --> 00:37:43,261 de 150 personas que formaban parte del equipo de ética de la IA. 703 00:37:43,303 --> 00:37:46,473 Y el objetivo de todo esto es, literalmente, revisar 704 00:37:46,515 --> 00:37:49,309 ¿Qué está pasando y establece reglas y estándares? 705 00:37:49,351 --> 00:37:51,853 para lo que está pasando en este mundo de la IA. 706 00:37:51,895 --> 00:37:54,982 Y en cambio lo que hizo Microsoft, y tengo que decirlo, 707 00:37:55,023 --> 00:37:57,526 De todas las empresas tecnológicas, las grandes gigantes, 708 00:37:57,567 --> 00:38:00,487 Siempre he pensado que Microsoft es una empresa muy 709 00:38:00,529 --> 00:38:04,074 Empresa segura y estable y que quiere lo mejor para las personas. 710 00:38:04,116 --> 00:38:06,660 Pero ahora que estamos viendo que incluso han recortado 711 00:38:06,702 --> 00:38:10,622 Todo su equipo de ética, eso es lo que realmente me asusta. 712 00:38:12,457 --> 00:38:15,711 Entonces, cuando asistía a Singularity University, 713 00:38:15,752 --> 00:38:20,173 Nuestro programa de posgrado debatiría cuándo se produciría sensibilidad. 714 00:38:20,215 --> 00:38:23,093 sucede, no sólo a partir de la prueba de Turing, sino también 715 00:38:23,135 --> 00:38:27,806 En términos generales, ¿cuándo se reconocería a una IA como un ser en un tribunal? 716 00:38:27,848 --> 00:38:29,141 Por ejemplo. 717 00:38:29,182 --> 00:38:32,102 Ya estamos viendo que la IA está siendo reconocida en los tribunales. 718 00:38:32,144 --> 00:38:35,397 También estamos viendo empresas que funcionan con IA. 719 00:38:35,981 --> 00:38:38,567 En Estados Unidos las empresas tienen personalidad jurídica. 720 00:38:38,608 --> 00:38:41,653 Así que, de alguna manera, una IA ya puede tener 721 00:38:41,695 --> 00:38:44,990 personalidad que es diferente de la sensibilidad. 722 00:38:45,032 --> 00:38:47,451 Y si estás pensando en todas las cosas 723 00:38:47,492 --> 00:38:50,078 ¿Que componen un humano lo hará una IA? 724 00:38:50,120 --> 00:38:51,246 No. 725 00:38:51,288 --> 00:38:52,914 Una IA será diferente. 726 00:38:52,956 --> 00:38:56,585 Una AGI, una Inteligencia General Artificial va a 727 00:38:56,626 --> 00:38:58,336 Parece diferente a un humano. 728 00:38:58,378 --> 00:39:01,256 Tendrá diferentes sensores, diferentes capacidades, 729 00:39:01,298 --> 00:39:04,968 Probablemente no tendrá piel como la tenemos nosotros, ¿verdad? 730 00:39:05,010 --> 00:39:07,971 ¿Pero eso cambia la naturaleza de su inteligencia? 731 00:39:08,013 --> 00:39:09,639 Sí. 732 00:39:09,681 --> 00:39:12,893 ¿Es sensible como lo es la naturaleza? Probablemente. 733 00:39:12,934 --> 00:39:16,438 Probablemente ya sea tan sensible como un hongo, de alguna manera. 734 00:39:19,775 --> 00:39:21,902 Si tuviera que apostar, apostaría en contra. 735 00:39:21,943 --> 00:39:25,614 La inteligencia artificial cada vez adquiere más conciencia de sí misma, como los humanos. 736 00:39:25,655 --> 00:39:29,034 Y yo sugeriría una probabilidad del 80% en contra. 737 00:39:31,036 --> 00:39:35,040 Creo que la IA tiene el potencial de 738 00:39:35,082 --> 00:39:39,503 Llegar a ser consciente en algún momento de ser ese Skynet. 739 00:39:40,212 --> 00:39:43,131 Soy estudiante de historia y veo películas, 740 00:39:43,173 --> 00:39:45,759 Y he estado viendo películas desde que era pequeño. 741 00:39:45,801 --> 00:39:49,805 Y todo lo que era ciencia ficción, 742 00:39:49,846 --> 00:39:51,515 No quiero decirlo todo 743 00:39:51,556 --> 00:39:53,600 Muchas cosas que eran pura ciencia ficción. 744 00:39:53,642 --> 00:39:55,268 Ahora son un hecho científico. 745 00:39:55,310 --> 00:39:57,521 Bueno, mucho de lo que decía Buck Roger se ha hecho realidad. 746 00:39:57,562 --> 00:39:59,981 Mi suegro era un hombre de comunicaciones en 747 00:40:00,023 --> 00:40:02,734 La Marina y ellos estaban haciendo cosas similares en 748 00:40:02,776 --> 00:40:07,155 los años 70 y finales de los 60, pero era sólo una selección 749 00:40:07,197 --> 00:40:09,491 Pocos podrían tener acceso a eso. 750 00:40:09,533 --> 00:40:11,576 Ahora todo el mundo podría tener acceso a él. 751 00:40:12,119 --> 00:40:14,329 Sí, creo que el verdadero peligro con 752 00:40:14,371 --> 00:40:18,291 La IA no es la conciencia que conduce a robots eliminados. 753 00:40:18,333 --> 00:40:23,088 En primer lugar, porque muchas redes conectadas tienen que... 754 00:40:23,130 --> 00:40:26,508 Para que esto ocurra, la IA tendría que encontrar la manera de entrar en 755 00:40:26,550 --> 00:40:30,137 robots dinámicos o algo por el estilo. 756 00:40:30,178 --> 00:40:33,056 Y entonces tendría que encontrarse metido en algún tipo de... 757 00:40:33,098 --> 00:40:37,352 Fabricación de municiones y tener un control total 758 00:40:37,394 --> 00:40:40,397 De todos esos escenarios y poder terraformar esencialmente 759 00:40:40,438 --> 00:40:44,568 en sí mismo en el mundo real y no sólo en el mundo de los bits. 760 00:40:45,986 --> 00:40:49,239 Al menos en el corto y mediano plazo, ciertamente es... 761 00:40:49,281 --> 00:40:54,244 serán humanos usando IA contra otros humanos. 762 00:40:54,286 --> 00:40:57,164 En muchos sentidos, se trata simplemente de una tecnología de ampliación. 763 00:40:57,205 --> 00:41:02,169 Entonces, las personas que están en un marco de adquisición 764 00:41:02,210 --> 00:41:07,174 recursos o prestigio o poder bajo condiciones aparentemente 765 00:41:07,215 --> 00:41:10,594 En cualquier circunstancia, simplemente van a usar esto. 766 00:41:10,635 --> 00:41:13,138 como una forma de llegar a ese objetivo más rápido. 767 00:41:16,808 --> 00:41:19,352 Todos hemos visto Terminator y Skynet y todo eso. 768 00:41:19,394 --> 00:41:23,148 Pero no, da miedo pensar que algo que es 769 00:41:23,190 --> 00:41:25,442 más inteligente que tú con el acceso a Internet, 770 00:41:25,483 --> 00:41:28,945 y que podría movilizarse en una forma física con ayuda, 771 00:41:28,987 --> 00:41:32,699 Por supuesto, pero todavía es posible conectarlo a un cuerpo de robot. 772 00:41:32,741 --> 00:41:36,286 Quiero decir, ves a los perros sin cabeza del MIT. 773 00:41:36,328 --> 00:41:39,372 Quiero decir, no sé por qué alguien querría eso, 774 00:41:39,414 --> 00:41:42,125 Pero, sabes, puedo ver el uso práctico de... 775 00:41:42,167 --> 00:41:45,420 para ayudar, ya sabes, tal vez como empleada doméstica o para construir cosas y 776 00:41:45,462 --> 00:41:48,965 para que el peligro humano no sea como los viajes espaciales y todo eso. 777 00:41:49,007 --> 00:41:51,760 Pero en la medida en que todos somos seres humanos, 778 00:41:51,801 --> 00:41:54,137 Ya sabes, incluso si eres una persona racista, 779 00:41:54,179 --> 00:41:56,097 Todavía no quieres que la sociedad termine. 780 00:41:56,139 --> 00:41:58,892 No quieres que solo haya un tipo en la burbuja en la cima. 781 00:41:58,934 --> 00:42:01,645 de una torre y muchos robots trabajadores, espero. 782 00:42:01,686 --> 00:42:03,230 Ya sabes, la mayoría de la gente lo haría, 783 00:42:03,271 --> 00:42:05,565 En mi sano juicio no querríamos que la creación terminara de esa manera. 784 00:42:08,443 --> 00:42:13,823 Entonces, cuando se trata de que la IA se vuelva consciente, es bastante posible. 785 00:42:13,865 --> 00:42:17,535 Y realmente tengo la esperanza de que no caiga en eso. 786 00:42:17,577 --> 00:42:22,165 las trampas de la humanidad y la emoción humana donde en lugar de 787 00:42:22,207 --> 00:42:26,002 Simplemente al principio siendo temeroso y destructivo, 788 00:42:26,044 --> 00:42:29,256 que pueden tener más conciencia que nosotros como personas. 789 00:42:29,297 --> 00:42:32,342 Que hay una mejor manera de hacer las cosas. 790 00:42:32,384 --> 00:42:36,179 Y ahí es donde se encuentra esa relación entre la IA y 791 00:42:36,221 --> 00:42:39,432 Los humanos podrían ser muy beneficiosos porque en algún momento 792 00:42:39,474 --> 00:42:43,520 Es probable que nos enseñe las cosas que necesitamos hacer. 793 00:42:43,561 --> 00:42:47,524 que realmente podemos sobrevivir en el futuro por más tiempo 794 00:42:47,565 --> 00:42:52,612 de lo que probablemente haremos basándonos en la forma en que es la humanidad ahora. 795 00:42:54,990 --> 00:42:59,286 Hemos visto una convergencia masiva de datos globales, 796 00:42:59,327 --> 00:43:04,207 por ejemplo, sobre el clima y cómo el clima afecta a los humanos. 797 00:43:04,249 --> 00:43:07,794 Hemos visto cómo debemos responder a 798 00:43:07,836 --> 00:43:10,922 desastres rápidos, pero no necesariamente 799 00:43:10,964 --> 00:43:14,718 Aplicamos la IA de manera efectiva a nuestros mayores problemas. 800 00:43:14,759 --> 00:43:18,513 Clima, migración, desplazamiento, pobreza. 801 00:43:18,930 --> 00:43:24,227 A menudo pensamos que la IA empeora las desigualdades 802 00:43:24,269 --> 00:43:28,273 En lugar de mejorar la calidad de vida de todos. 803 00:43:29,190 --> 00:43:32,152 ¿Mejorará la IA la calidad de vida de todos? 804 00:43:32,193 --> 00:43:33,570 Podría ser. 805 00:43:33,611 --> 00:43:35,947 Pero tenemos que elegir programarlo de esa manera y 806 00:43:35,989 --> 00:43:38,116 implementarlo de esa manera. 807 00:43:38,158 --> 00:43:42,287 Eso significa poner sensores en el terreno en nuestras granjas. 808 00:43:42,329 --> 00:43:44,539 De modo que si nuestros agricultores están teniendo un año de sequía, 809 00:43:44,581 --> 00:43:48,043 Podemos apoyarlos antes de que pierdan su cosecha, ¿verdad? 810 00:43:48,084 --> 00:43:51,629 O en caso de desastre climático, tener la logística preparada 811 00:43:51,671 --> 00:43:53,798 moverse más rápido para que la gente no 812 00:43:53,840 --> 00:43:56,301 morir de hambre después del tifón de un huracán. 813 00:43:57,135 --> 00:43:59,512 Esto aún no se está implementando plenamente. 814 00:43:59,554 --> 00:44:00,972 Esto apenas empieza. 815 00:44:01,014 --> 00:44:03,141 Y creo que estamos empezando a ver también 816 00:44:03,183 --> 00:44:06,102 Esta rápida colaboración en torno a los datos. 817 00:44:06,144 --> 00:44:09,105 Y eso ciertamente se aplica a la acción climática, pero también se aplica a... 818 00:44:09,147 --> 00:44:12,734 un puñado de otros lugares, logística y envío. 819 00:44:12,776 --> 00:44:15,695 Lugares donde la colaboración global 820 00:44:15,737 --> 00:44:17,822 Es una situación de vida o muerte. 821 00:44:21,368 --> 00:44:25,455 Con la IA, la tecnología está cambiando rápidamente y va a... 822 00:44:25,497 --> 00:44:29,376 Depende de todos nosotros intentar mantenernos al día con esos cambios. 823 00:44:29,417 --> 00:44:31,669 Esto ha sido así a lo largo de toda la humanidad. 824 00:44:31,711 --> 00:44:35,423 Aparece alguna nueva tecnología y la gente tiene que adaptarse. 825 00:44:35,465 --> 00:44:38,343 Creo que es importante para los desarrolladores de tecnología. 826 00:44:38,385 --> 00:44:40,303 Trabajar con las personas que estarán 827 00:44:40,345 --> 00:44:43,098 utilizando esa tecnología y siendo impactado por esa tecnología. 828 00:44:43,139 --> 00:44:46,142 que no los deje atrás. 829 00:44:46,184 --> 00:44:50,146 Esto se supone que es una herramienta, se supone que es un pincel. 830 00:44:50,188 --> 00:44:53,024 poner en manos de los practicantes para capacitarlos 831 00:44:53,066 --> 00:44:55,026 para hacer cosas que nunca habían podido hacer antes. 832 00:44:56,736 --> 00:45:00,156 Así que ayudé a liderar un grupo llamado Interoperabilidad de Metaverso Abierto. 833 00:45:00,198 --> 00:45:02,367 Y he trabajado en tecnologías Metaverse. 834 00:45:02,409 --> 00:45:04,035 Durante los últimos 20 años. 835 00:45:04,077 --> 00:45:07,122 Veo el Metaverso como el futuro de la web 3D en 836 00:45:07,163 --> 00:45:10,583 Ese espacio conectado que todos compartimos y gafas inteligentes y 837 00:45:10,625 --> 00:45:14,838 teléfonos inteligentes y cascos de realidad virtual y mucha tecnología de visualización como 838 00:45:14,879 --> 00:45:19,384 Las pantallas holográficas son parte de esa futura web 3D. 839 00:45:20,051 --> 00:45:22,846 Ya veo niños creando en ese espacio, ¿verdad? 840 00:45:22,887 --> 00:45:25,473 Roblox es una versión temprana de eso. 841 00:45:25,515 --> 00:45:29,853 Así que sabemos que la próxima generación de niños ya está... 842 00:45:29,894 --> 00:45:32,564 Diseñando en 3D, construyendo mundos 3D. 843 00:45:32,605 --> 00:45:35,817 No se limitan a la interfaz 2D. 844 00:45:35,859 --> 00:45:38,153 Creo que los que somos mayores tenemos 845 00:45:38,194 --> 00:45:40,363 Es más difícil pasar del 2D al 3D. 846 00:45:40,405 --> 00:45:43,032 Los que son jóvenes no tienen ningún problema simplemente 847 00:45:43,074 --> 00:45:45,160 saltando directamente al mundo 3D. 848 00:45:45,201 --> 00:45:47,287 ¿Las gafas soportarán que se pongan así? 849 00:45:47,328 --> 00:45:49,622 ¿Allí mientras están cargando gasolina o haciendo cualquier otra cosa? 850 00:45:49,664 --> 00:45:51,416 Sí, llegará. 851 00:45:51,458 --> 00:45:53,293 Ya estoy compartiendo mundos de Metaverso con 852 00:45:53,334 --> 00:45:56,546 Mis amigos en mi teléfono alrededor de la mesa en el bar. 853 00:45:56,588 --> 00:45:58,131 Así que ya está ahí. 854 00:45:58,173 --> 00:45:59,757 Las herramientas están ahí. 855 00:45:59,799 --> 00:46:01,301 No están distribuidos uniformemente, 856 00:46:01,342 --> 00:46:03,761 pero todos son de código abierto y fáciles de conseguir. 857 00:46:05,013 --> 00:46:07,223 Mi empresa, Semio, está construyendo un sistema operativo 858 00:46:07,265 --> 00:46:09,100 Sistema para robots personales. 859 00:46:09,142 --> 00:46:10,768 Y la forma en que puedes pensar en eso es, eh, 860 00:46:10,810 --> 00:46:13,688 de la misma manera que la gente usa una computadora personal 861 00:46:13,730 --> 00:46:16,858 una interfaz gráfica de usuario, un teclado y un ratón, uh, 862 00:46:16,900 --> 00:46:19,194 La forma en que las personas usan un teléfono inteligente a través de 863 00:46:19,235 --> 00:46:23,239 una pantalla táctil, utilizarán lenguaje natural como 864 00:46:23,281 --> 00:46:27,035 La interfaz de usuario de entrada y salida principal para robots. 865 00:46:27,076 --> 00:46:29,496 Uh, pero será más que solo entender. 866 00:46:29,537 --> 00:46:31,080 Lo que la gente está diciendo. 867 00:46:31,122 --> 00:46:32,665 Será como lo digan. 868 00:46:32,707 --> 00:46:34,584 el tono de voz, a través de su lenguaje corporal. 869 00:46:34,626 --> 00:46:37,128 El robot tiene que entender eso del usuario, 870 00:46:37,170 --> 00:46:39,172 tomar decisiones sobre esa información. 871 00:46:39,214 --> 00:46:41,549 Y necesita poder responder con su propio discurso o 872 00:46:41,591 --> 00:46:44,427 otras acciones físicas, ya sea lenguaje corporal o 873 00:46:44,469 --> 00:46:47,055 manipular objetos del entorno. 874 00:46:47,847 --> 00:46:49,766 Empezamos a tener una relación real 875 00:46:49,807 --> 00:46:53,228 con los roles que amamos y también con las personas que amamos. 876 00:46:53,269 --> 00:46:57,565 Podemos crear un modelo de alguien que falleció, ¿verdad? 877 00:46:57,607 --> 00:47:00,985 Tener una relación que puede parecer efímera, 878 00:47:01,027 --> 00:47:03,404 pero para nosotros también parece muy real, ¿verdad? 879 00:47:03,446 --> 00:47:05,532 Esto es algo que hago en mi propio arte. 880 00:47:05,573 --> 00:47:07,867 Donde ayudo a la gente a ver, por ejemplo, 881 00:47:07,909 --> 00:47:11,079 Perdí un hijo, así que creé lo que mi hijo 882 00:47:11,120 --> 00:47:14,040 ¿Cómo te habrías visto ahora con 25 años, verdad? 883 00:47:14,082 --> 00:47:16,918 He tenido muchas chicas que se han acercado a mí, muchas mujeres que me han dicho: 884 00:47:16,960 --> 00:47:18,670 "¿Podría ver a mi hijo también?" 885 00:47:18,711 --> 00:47:21,839 O "Me hubiera gustado ver dónde estaba mi hijo". 886 00:47:21,881 --> 00:47:23,132 Será cuando crezca. 887 00:47:23,174 --> 00:47:24,676 Sé que moriré pronto, 888 00:47:24,717 --> 00:47:26,261 pero me encantaría ver a mis nietos." 889 00:47:26,678 --> 00:47:31,266 Por lo tanto, utilizarlos como herramienta para la visión es algo extraordinario. 890 00:47:31,307 --> 00:47:33,351 manera de sanar algo en el corazón. 891 00:47:33,393 --> 00:47:35,520 Puede mejorar nuestras relaciones. 892 00:47:36,854 --> 00:47:39,023 Es importante ahora mismo, creo, 893 00:47:39,065 --> 00:47:42,151 para aprender realmente todo lo que puedas sobre IA. 894 00:47:42,193 --> 00:47:44,654 No creo que debamos tenerle miedo. 895 00:47:44,696 --> 00:47:48,575 Sabemos lo que está pasando, pero va a llegar a nuestras manos. 896 00:47:48,616 --> 00:47:50,034 De algunas personas malas. 897 00:47:50,076 --> 00:47:51,452 Como ves las drogas, 898 00:47:51,494 --> 00:47:53,413 Lo ves como cocaína, éxtasis. 899 00:47:53,454 --> 00:47:56,457 Y cuando miras lo que realmente hicieron con él, 900 00:47:56,499 --> 00:47:59,377 Al principio era con fines médicos y luego 901 00:47:59,419 --> 00:48:02,589 Cayó en manos equivocadas y luego hicieron lo que pudieron con él. 902 00:48:02,630 --> 00:48:04,340 Así que es algo así. 903 00:48:04,382 --> 00:48:06,175 Es decir, va a llegar a las manos adecuadas, donde la gente... 904 00:48:06,217 --> 00:48:08,636 Podrán evolucionar mejor en sus negocios. 905 00:48:08,678 --> 00:48:10,930 y en el mundo, pero luego va a 906 00:48:10,972 --> 00:48:12,515 caer en manos equivocadas. 907 00:48:12,557 --> 00:48:14,517 Pero no creo que debamos tener miedo. 908 00:48:14,559 --> 00:48:17,228 Es solo que todos necesitamos educarnos más y 909 00:48:17,270 --> 00:48:19,022 Necesitamos evolucionar con ello. 910 00:48:19,063 --> 00:48:21,024 Y tenemos que entender que las cosas 911 00:48:21,065 --> 00:48:22,734 van a cambiar dramáticamente. 912 00:48:22,775 --> 00:48:25,612 Y la gente que más lo entiende es 913 00:48:25,653 --> 00:48:28,448 Los que podrán seguir adelante con su vida. 914 00:48:28,489 --> 00:48:30,825 Más fácil que los que esperaron hasta el último momento. 915 00:48:30,867 --> 00:48:33,661 minuto para aprender sobre ello y luego sus trabajos fueron tomados. 916 00:48:34,412 --> 00:48:39,042 Son nuestros propios límites los que nos impiden avanzar. 917 00:48:39,083 --> 00:48:41,961 Y a veces se necesitan límites, 918 00:48:42,003 --> 00:48:45,048 A veces esos parámetros son necesarios. 919 00:48:45,923 --> 00:48:50,386 Pero creo que lo que más nos asusta no es la IA, 920 00:48:50,428 --> 00:48:54,223 pero cómo nosotros, como humanos, utilizaremos la IA. 921 00:48:54,265 --> 00:48:57,894 Porque sabemos que no todos tienen buen corazón. 922 00:48:57,935 --> 00:49:00,146 No todo el mundo tiene buenas intenciones. 923 00:49:00,188 --> 00:49:02,732 Así que no tenemos miedo de la mejora de la IA. 924 00:49:02,774 --> 00:49:04,233 Tenemos miedo de nosotros mismos. 925 00:49:06,819 --> 00:49:11,949 El futuro de la IA es todo lo que decidamos poner en ella. 926 00:49:11,991 --> 00:49:16,537 Así que si queremos un futuro mejor, depende de nosotros elegir. 927 00:49:16,579 --> 00:49:19,457 y cuidar, y dar vida a ese futuro. 928 00:49:20,166 --> 00:49:24,170 Bueno, a diferencia de una película de desastres, creo que la perspectiva es buena. 929 00:49:24,212 --> 00:49:27,340 Creo que la humanidad va a aguantar los golpes, 930 00:49:27,382 --> 00:49:29,217 La gente se va a poner al día con el programa. 931 00:49:29,258 --> 00:49:32,387 Y la sensibilidad humana va a... 932 00:49:32,428 --> 00:49:35,431 prevalecer sobre el caos y la destrucción. 933 00:49:35,473 --> 00:49:37,767 Ya ves en todas las películas: "Oh, todos vamos a morir". 934 00:49:37,809 --> 00:49:40,770 Cada año, Nostradamus decía esto, ya sabes, 935 00:49:40,812 --> 00:49:43,481 Alguien dijo eso, pero nunca sucede. 936 00:49:43,523 --> 00:49:45,191 Y rezo para que nunca suceda. 937 00:49:45,233 --> 00:49:48,236 Y lo que digo es que si todos mantenemos la calma, 938 00:49:48,277 --> 00:49:49,987 Salvarnos, hacer lo mejor que podamos 939 00:49:50,029 --> 00:49:53,491 Individualmente en general, estaremos bien al final. 940 00:49:53,533 --> 00:49:56,536 Y creo que tendremos un buen futuro con la IA y 941 00:49:56,577 --> 00:50:00,289 La robótica puede estar al lado de la humanidad si no lo hacemos. 942 00:50:00,331 --> 00:50:02,166 Entre en pánico e intente cancelar el programa. 943 00:50:02,208 --> 00:50:04,627 No es Skynet y tu computadora no puede matar 944 00:50:04,669 --> 00:50:07,088 a menos que lo enciendas y lo dejes caer sobre tu cabeza. 945 00:50:07,130 --> 00:50:10,425 Así que es como, ya sabes, simplemente mantén la calma, el equilibrio, 946 00:50:10,466 --> 00:50:13,678 Relájate, intenta hacer lo mejor que puedas con tu vida. 947 00:50:13,720 --> 00:50:15,513 tu inteligencia, tus finanzas. 948 00:50:15,555 --> 00:50:17,765 Haz un plan para ti que funcione para ti. 949 00:50:23,229 --> 00:50:26,399 No confíes demasiado en ninguna tecnología. 950 00:50:26,441 --> 00:50:29,777 Yo era del grupo anterior al microondas y al lavavajillas, 951 00:50:29,819 --> 00:50:31,446 ¿usted sabe lo que quiero decir? 952 00:50:31,487 --> 00:50:32,989 Así que no teníamos microondas cuando yo era niño. 953 00:50:33,030 --> 00:50:34,782 Tuvimos que hacer todo eso manualmente. 954 00:50:34,824 --> 00:50:37,785 Y fue raro porque en casa se nos estropeó el microondas y 955 00:50:37,827 --> 00:50:40,413 Pasó como una semana antes de que consiguiera uno nuevo y lo instalé. 956 00:50:40,455 --> 00:50:42,498 Y le dije a mi esposa, ¿cómo sobrevivimos? 957 00:50:42,540 --> 00:50:44,292 ¿Allá en nuestra infancia? 958 00:50:44,333 --> 00:50:46,127 No me di cuenta de lo dependientes que éramos. 959 00:50:46,169 --> 00:50:47,754 en ese único dispositivo. 960 00:50:47,795 --> 00:50:51,174 Tómate siempre tiempo para hablar con la gente cara a cara, 961 00:50:51,215 --> 00:50:53,009 tocarnos, abrazarnos. 962 00:50:53,050 --> 00:50:54,677 Necesitas esa interacción. 963 00:50:54,719 --> 00:50:57,847 Especialmente si tienes niños pequeños, ellos necesitan eso. 964 00:50:57,889 --> 00:50:59,515 Así que ese sería mi consejo. 965 00:50:59,557 --> 00:51:03,352 No dejemos que la humanidad acabe dentro de la tecnología. 82875

Can't find what you're looking for?
Get subtitles in any language from opensubtitles.com, and translate them here.